PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Raven Ridge APU: Zen-Cores, Vega-GPU, DDR4, 65W, 2017


Seiten : 1 2 3 4 5 6 7 [8] 9 10

dargo
2018-02-11, 09:15:47
Der Single Core Turbo ist massiv besser als bei den alten Ryzen Modellen,CPU-Z liegt dort um 360 bei den 65 Watt Modellen.2400G 440.
360, ist das nicht ein bisschen wenig? Mein R5-1600 @3,8Ghz macht 435. Selbst wenn ich das OC von 12% rausnehme dürfte das nicht passen.

dildo4u
2018-02-11, 09:22:18
Kann sein das der Ram Speed ne Rolle spielt,1600 und 1400 sind in dem Bereich.

https://valid.x86.fr/bench/1

Die 95 Watt Modelle sind natürlich besser.

basix
2018-02-11, 09:32:34
360, ist das nicht ein bisschen wenig? Mein R5-1600 @3,8Ghz macht 435. Selbst wenn ich das OC von 12% rausnehme dürfte das nicht passen.

CPU-Z profitiert stark von mehr Cache und auch von schnellem Speicher. Mit meinem 5820K habe ich fast +10% SC wie ein gleichgetakteter 4790K. Da RR nur 4MB L3$ besitzt, würde ich darauf tippen.

iuno
2018-02-11, 09:39:52
Ja, ich sehe ein paar Unterschiede nun.
Die offensichtlichsten Sachen stehen (abgesehen vom Quelltext) immer auch auf https://wiki.freedesktop.org/xorg/RadeonFeature/#index10h2

Raven hat als erster Chip ganz neue Video- (VCN statt UVD+VCE) und Display-(DCN) Bloecke. Offensichtlich ist, dass Raven im Gegensatz zu Vega10 endlich VP9 decodieren kann und ggue. dem Vorgaenger (CZ/BR) mehr Displaycontroller hat.

Auf YT gibt es auch einen, der die APU schon von Amazon bekommen hat, stream ist langweilig aber dennoch der Link: https://www.youtube.com/watch?v=PrRvBWZ1AFA

aufkrawall
2018-02-11, 18:09:44
Die VPU schafft offenbar YT 4k 60fps VP9 10 Bit:
https://forum.doom9.org/showthread.php?p=1833419#post1833419
Yey! :smile:

y33H@
2018-02-11, 19:04:33
Bei "The World in HDR" mit VP10b sollte sehr viel weniger 3D-Last anliegen, ggf ne Treiber-Sache.

Knuddelbearli
2018-02-11, 20:41:27
https://geizhals.at/acer-swift-3-sf315-41-r4w1-nx-gv7ev-001-a1717584.html?hloc=at

Für meine Schwester bestellt

Hat aktuell noch einen Core 2 duo mit Vista und HDD ^^
Musste ihr heute was machen und bis ich die entsprechende Funktion über Teamviewer gefunden hab da unter Vista alle Menüs noch ganz anders ...


Eingerichtet wirds über Teamviewer ( wohne 800km entfernt ) also werde ich wohl nix benchen können.

spotz
2018-02-12, 06:40:38
Ich habe gerade mal kurz bei Geizhals ein wenig rübergeschaut und bin überrascht, dass Notebooks mit Ryzen 2500u ungefähr die gleichen Preise haben, wie welche mit 8250U und einer MX150. Ohne dedizierte GPU sind die Notebooks mit Intel sogar deutlich günstiger. Sind die Intel/Nvidia Varianten Preis-Leistungsmäßig besser aufgestellt oder übersehe ich da etwas? Eigentlich hatte ich erwartet das Notebooks mit 2500u ein ähnliches Preisniveau haben wie Notebooks mit einem 8250u ohne dedizierte Grafik.

robbitop
2018-02-12, 08:13:37
Das Angebot ist leider auch noch sehr spärlich. Hoffentlich wird das mittelfristig besser.

YfOrU
2018-02-12, 09:32:01
Ich habe gerade mal kurz bei Geizhals ein wenig rübergeschaut und bin überrascht, dass Notebooks mit Ryzen 2500u ungefähr die gleichen Preise haben, wie welche mit 8250U und einer MX150. Ohne dedizierte GPU sind die Notebooks mit Intel sogar deutlich günstiger. Sind die Intel/Nvidia Varianten Preis-Leistungsmäßig besser aufgestellt oder übersehe ich da etwas? Eigentlich hatte ich erwartet das Notebooks mit 2500u ein ähnliches Preisniveau haben wie Notebooks mit einem 8250u ohne dedizierte Grafik.

Ist im direkten Vergleich innerhalb einer Serie nicht der Fall:

Acer Swift 3 SF315: https://geizhals.de/?cat=nb&asd=on&asuch=acer+swift+3&xf=2379_15.4~9594_Kaby+Lake-R~9594_N%2FA+(AMD)~9_1920x1080
HP Envy x360 15: https://geizhals.de/?cat=nb&asd=on&asuch=hp+envy+360&xf=2379_15.4~9594_Kaby+Lake-R~9594_N%2FA+(AMD)
Lenovo Ideapad 720S-13: https://geizhals.de/?cat=nb&asd=on&asuch=lenovo+720s&xf=2377_13.9~9594_Kaby+Lake-R~9594_N%2FA+(AMD)

Die Varianten mit KBL-R sind bei identischer Ausstattung (LCD, RAM und SSD) durchgehend teurer. Das es Geräte (Serien) mit flotterer Hardware für den gleichen Preis gibt ist ganz normal. Sind im Regelfall die üblichen Plastikbomber oder zeitlich begrenzte Angebote.

Pirx
2018-02-12, 09:38:27
nicht unbedingt https://geizhals.de/?cmp=1731475&cmp=1717585

YfOrU
2018-02-12, 09:52:44
Stimmt. Die haben (lieferbar) den exakt gleichen EK Preis. Mit KBL-R (i7) und MX150 machts aber direkt 1132€ brutto. Damit auch weit weg von MX150 for free.

Pirx
2018-02-12, 10:25:40
wie sich die Musterschüler wieder alle vorbildlich an das NDA halten..;)

ZuseZ3
2018-02-12, 10:39:17
Un wie viel Uhr endet nochmal das NDA?

Pirx
2018-02-12, 10:54:43
das unterliegt der strengsten Geheimhaltung!11, schätzungsweise 15-16 Uhr

Phonon
2018-02-12, 13:39:29
Ein erster Shop hat den 2200G und 2400G gelistet =)

spotz
2018-02-12, 13:55:50
Die Varianten mit KBL-R sind bei identischer Ausstattung (LCD, RAM und SSD) durchgehend teurer. Das es Geräte (Serien) mit flotterer Hardware für den gleichen Preis gibt ist ganz normal. Sind im Regelfall die üblichen Plastikbomber oder zeitlich begrenzte Angebote.

Ich habe es mir nochmal angesehen und ich denke du hast recht. Die günstigen Notebooks mit 8250u und MX 150 stammen bei Geizhals vor allem aus den Serien Acer Aspire 5 und Lenovo IdeaPad 320. Bei Notebookcheck werden die mit "befriedigend" bewertet, während die Ryzen Notebooks Acer Swift 3 oder HP Envy x360 ein "gut" erhielten.

Auch wenn einem die billigeren Notebooks nicht zusagen, wäre es im Sinne der Auswahl wohl zu begrüßen, wenn es auch ein paar billiger gemachte Ryzen 2500u Notebooks gäbe.

YfOrU
2018-02-12, 14:33:36
Günstige bzw. "billigst" Notebooks waren in der Vergangenheit nicht gerade AMDs Problem ;)

Kommt mit Sicherheit noch. Also Nachfolger von Entry/Low Budget Geräten mit BR wie HP 15, Lenovo Ideapad 310 und Acer Aspire E15. Die kleineren mobilen APUs (Konkurrenz zu i3 und Pentium) sind ja auch noch nicht am Markt angekommen.

dildo4u
2018-02-12, 15:09:45
Vega IGP kann im Desktop ordentlich aufdrehen.

http://abload.de/img/igphqdrth.png

https://www.computerbase.de/2018-02/ryzen-3-2200g-5-2400g-test-amd-raven-ridge/2/

unl34shed
2018-02-12, 16:21:55
Wow und ich dachte bei den iGPUs geht nicht mehr viel wegen der Bandbreite.

HOT
2018-02-12, 16:26:20
Und wieder zeigt sich, dass V10 unverantwortliche Engpässe hat...

Locuza
2018-02-12, 16:34:00
Naja, gegenüber dem Kaveri 7890K Modell bieten die RR SKUs 72-81% mehr Leistung bei der GPU, aber Kaveri verwendet DDR3-2133 und Raven-Ridge DDR4-2933, also ~38% mehr Rohbandbreite.
Kaveri verwendet GCN Gen 2, da gab es praktisch noch keine Delta-Color-Compression wie unter GCN Gen 3 und dann deutlich verbessert unter Gen 4.
Gen 5 (Vega) brachte noch den Draw-Stream-Binning-Rasterizer.
Auch an anderen Stellen ist die Architektur effizienter geworden, indem das Geometry-Frontend neue bzw. größere Buffer bekommen hat und weniger auf die externe Bandbreite drückt.

Hübie
2018-02-12, 17:59:40
Was ist denn aus Varianten mit HBM geworden? War da nicht mal was im Gespräch? Finde den Verbrauch des 2400G im Vergleich zum 2200 zu hoch, oder? Das sind 15-20% Unterschied bei nur 5% mehr Spieleperformance. :uponder:

Ein Test mit Wakü, delidded+LqM und offener TDP wäre cool. Gibt's OC-Tests? Noch keinen gesehen (bisher nur anand+cb abgecheckt).

dildo4u
2018-02-12, 18:07:58
Was ist denn aus Varianten mit HBM geworden? War da nicht mal was im Gespräch? Finde den Verbrauch des 2400G im Vergleich zum 2200 zu hoch, oder? Das sind 15-20% Unterschied bei nur 5% mehr Spieleperformance. :uponder:

Nicht alle Games skalieren mit SMT,bei den Anwendungen sieht es gut aus.Modelle mit HBM2 kommen erstmal nur für Notebooks bzw Intels High-End NUC.

http://abload.de/img/smtgfxjpfi.png

Unicous
2018-02-12, 18:35:54
https://i.imgur.com/dMwRtn9.jpg
https://forums.anandtech.com/threads/amd-ryzen-5-2400g-and-ryzen-3-2200g-apus-performance-unveiled.2533111/page-54#post-39301964

Hübie
2018-02-12, 18:54:14
Nicht alle Games skalieren mit SMT,bei den Anwendungen sieht es gut aus.Modelle mit HBM2 kommen erstmal nur für Notebooks bzw Intels High-End NUC.

http://abload.de/img/smtgfxjpfi.png

Ich rede ja von Spielen ;) Und die HBM-Versionen kommen auch mit AMD-CPU?

dildo4u
2018-02-12, 18:58:39
Vega Mobile kommt da gibt es kein Intel zwang was dann verkauft wird bleibt natürlich abzuwarten.

https://videocardz.com/74712/amd-finally-announces-discrete-mobile-radeon-vega

Asus verkauft aber schon Ryzen plus 580,da sollte also was kommen.

https://www.notebookcheck.com/Test-Asus-ROG-Strix-GL702ZC-Ryzen-5-1600-Radeon-RX-580-FHD-Laptop.280270.0.html

Hübie
2018-02-12, 19:04:14
Wenn man die 36 W mal hoch rechnet käme man für ne volle Vega auf 210 Watt. Das ist also ne Ecke effizienter als die dedizierte Karte. Ist wohl der Voltage/Frequency curve geschuldet. Vega wird oben rum ja mega ineffizient.
Bis hier hin also ein ziemlich rundes Produkt (imo). Größter Kritikpunkt: WLP. Warum wird LqM so gescheut? Wegen der chemischen Verbindung die mit der Zeit auftritt??

Brillus
2018-02-12, 20:37:43
Asus verkauft aber schon Ryzen plus 580,da sollte also was kommen.

https://www.notebookcheck.com/Test-Asus-ROG-Strix-GL702ZC-Ryzen-5-1600-Radeon-RX-580-FHD-Laptop.280270.0.html
Warum kann es das nich in 15 zoll geben, dann wäre jetzt schon bestellt.

dildo4u
2018-02-12, 20:45:33
Das ist ne 65 Watt Desktop CPU im 15 Zoller haste vermutlich nich genug Platz für die nötige Kühlung.Intel Notebook CPUs maxen deshalb vermutlich bei 45 Watt.
Es sollen bald 35 Watt Ryzen APU kommen,die könnte man auch im Notebook mit 580 oder Vega verbauen.

https://videocardz.com/75004/asrock-and-asus-list-ryzen-5-2400ge-and-ryzen-3-2200ge-low-power-raven-ridge-apus

robbitop
2018-02-12, 20:52:48
Und wieder zeigt sich, dass V10 unverantwortliche Engpässe hat...
Naja so toll ist das Ergebnis gemessen an Pascal (GP108) nicht.

Ähnliche Performance bei vergleichbarer Bandbreite aber 56% mehr Rohleistung.

Interessant fand ich folgendes:

For the core only power, the Ryzen 5 2400G uses less power than the Core i3-8350K, despite the situation being reversed when considering the whole package. This means that Infinity Fabric takes a lot of power here, and the ring bus solution that Intel uses benefits from being simpler, and Intel can push more power to its individual cores.

Brillus
2018-02-12, 22:02:54
Das ist ne 65 Watt Desktop CPU im 15 Zoller haste vermutlich nich genug Platz für die nötige Kühlung.Intel Notebook CPUs maxen deshalb vermutlich bei 45 Watt.
Es sollen bald 35 Watt Ryzen APU kommen,die könnte man auch im Notebook mit 580 oder Vega verbauen.

https://videocardz.com/75004/asrock-and-asus-list-ryzen-5-2400ge-and-ryzen-3-2200ge-low-power-raven-ridge-apus
Naja sowas könnte man auch mit dicke lösen mein letztes(nicht aktuelles) war auch 5+ cm dick und hatte ein 180 Watt Netzteil das es auch benötigte(unter Volllast lud die Battierie quasi nicht auf).

PS: bei dem Laptop hatte ich es auch mal das als ich es im Zug in die Steckdose rein steckte im ganzen Wagen die Lichter dunkler wurden.

Opprobrium
2018-02-12, 23:28:10
PS: bei dem Laptop hatte ich es auch mal das als ich es im Zug in die Steckdose rein steckte im ganzen Wagen die Lichter dunkler wurden.

:nono: Da steht doch immer max. 90W...

Naja, solange der Zug nicht stehenbleibt :biggrin:

Eldoran
2018-02-12, 23:29:11
Ich hätte auch gerne so einen Ryzen mit grob 35W - das wäre der perfekte Ersatz für meinen i5-4300M. Die Nachfolgemodelle waren dann immer die U Serie und daher bestenfalls ein Sidegrade. Und jetzt mit Ryzen war das bisher auch irgendwie nur die beiden extreme - fette gaming/workstation Brocken oder schwachbrüstige Ultrabook-Verschnitte.

Brillus
2018-02-13, 00:44:22
:nono: Da steht doch immer max. 90W...

Naja, solange der Zug nicht stehenbleibt :biggrin:
Ich hab erst später mal nachgerechnet wieviel das ding zieht....ehrlich da hat es mich interessiert.

basix
2018-02-13, 10:14:20
Naja so toll ist das Ergebnis gemessen an Pascal (GP108) nicht.

Ähnliche Performance bei vergleichbarer Bandbreite aber 56% mehr Rohleistung.

Die CPU braucht auch Bandbreite ;)

Was man aber gut sieht: Ohne mehr Bandbreite oder Bandbreiteneffizienz geht nichts mehr. Ein 2GB Low-Cost HBM-Stack (256 - 512 Bit) mit sagen wir mal 100 GB/s und man würde in den 1050er Bereich vorstossen.

robbitop
2018-02-13, 11:54:42
Ja Raven Ridge profitiert anscheinend kaum von mehr als 8 CUs. Bandbreite ist bei IGPs immer knapp und immer ein Thema. Hoffentlich kann man da mit Navi nochmal etwas rausholen. Im Vergleich zu Pascal ist ja hier noch einiges an Potenzial zu holen.
Ansonsten wäre ein größerer LLC sicherlich auch hilfreich. Kostet aber natürlich Fläche.

in 7nm ist jede 6T Zelle ~0,03 µm groß. Würde bedeuten, dass 32 MiB L4 Cache mit ~ 8mm² möglich wären. 64 MiB mit ~16 mm².

Bei Intel (Crystallwell) sah man, dass ein guter L4 Cache der IGP sehr helfen kann.

Für Zen wäre ein LLC sogar in mehrfacher Hinsicht sinnvoll. Dank des relativ langsamen IF sind die Memory Latencies relativ schlecht (~20 ns schlechter als Ringbus CPUs von Intel). Ein LLC würde hier sicher (analog zu Broadwell H) auch in Spielen richtig was bringen. (Crystall Well lag bei ~40 ns - CBL liegt bei ~40 ns beim RAM. Summit Ridge und Raven Ridge liegen mit vergleichbarem ungetuntem RAM bei ~70-80 ns).

Dazu müsste man aber vieleicht den L3 von einem Victim Cache umstellen, oder?

dildo4u
2018-02-13, 12:10:23
Kann auch sein das AMD noch kein Interesse daran hat ihre 100€ Karten obsolet zu machen.So lange man Generationen Vorspung vor Intel hat passt das alles.Möglich das sich 200€ APUs erst mit HBM3 rechnen,bis dahin muss man am Speicherkontroller arbeiten das man 2019 z.b DDR4 4000 nutzen kann.

deekey777
2018-02-13, 13:02:04
Kann auch sein das AMD noch kein Interesse daran hat ihre 100€ Karten obsolet zu machen.So lange man Generationen Vorspung vor Intel hat passt das alles.Möglich das sich 200€ APUs erst mit HBM3 rechnen,bis dahin muss man am Speicherkontroller arbeiten das man 2019 z.b DDR4 4000 nutzen kann.
Warum sollten sie ihr Interesse daran verlieren? PC-Hersteller können die "kleinen" Roten weiterhin verbauen, selbst wenn die Kombination eigenlich sinnlos ist (R5 2500U/R5 2700U mit RX540).

Ein PC/Laptop mit einer zusätzlichen Grafikkarte mit 2/4 GB VRAM klingen wesentlich besser als nichts.

basix
2018-02-13, 16:37:27
Mit Navi verschiebt sich eh das ganze GPU Portfolio um Faktor 2-3 nach oben. Dann kann man das auch bei den 7nm APUs machen ;) Und dann wäre man bei 1050er Leistung angekommen, wo ein DDR4 Interface einfach nicht mehr ausreicht. Ausser man kann die Bandbreiteneffizienz so stark tunen, was aber unrealistisch ist. HBM mit 256 bit und Single Ended wäre evtl. auch ohne EMIB oder Interposer möglich. Bei 4 GBit/s was für HBM3 im Gespräch ist ergäbe das 128 GB/s. Bei 2GB muss evtl. nicht mal Die Stacking betrieben werden (Low Cost HBM soll ohne Logic Layer auskommen, 16 GBit Die gibt es ebenfalls schon). Alles in allem also vermutlich mit normalen Packaging Technologien herstellbar. Off-Package muss man auch nicht, weswegen es auch für normale CPU-Sockel geeignet sein kann. Bleibt nur die Frage des Preises. Ich sehe da kein Problem. Die paar $ machen den braten nicht fett. Asserdem kann man das Produkt so nach oben differenzieren. Höhere SKUs haben den HBM und dementsprechend sowieso mehr Marge, die günstigen haben keinen HBM. Ähnlich wie bei Iris Pro mit dem eDRAM.

HOT
2018-02-13, 16:50:51
Naja so toll ist das Ergebnis gemessen an Pascal (GP108) nicht.

Ähnliche Performance bei vergleichbarer Bandbreite aber 56% mehr Rohleistung.

Interessant fand ich folgendes:
THG misst 35W maximal beim IGP. Die 1030 hat auch 30W TDP. Passt doch.

Der_Korken
2018-02-13, 18:19:04
Ja Raven Ridge profitiert anscheinend kaum von mehr als 8 CUs. Bandbreite ist bei IGPs immer knapp und immer ein Thema.


Bei CB gab es einen Skalierungstest mit schnellerem RAM:

https://www.computerbase.de/2018-02/ryzen-3-2200g-5-2400g-test-amd-raven-ridge/2/#abschnitt_speicherskalierung

Hier sieht es für mich nicht so aus, als wäre die IGP großartig bandbreitenlimitiert. +6% aus +23% Bandbreite ist nicht viel. OK, die Latenz steigt auch, aber die dürfte nicht so viel ausmachen bei der GPU. Die sind ja schließlich auf Durchsatz ausgelegt und nicht so stark auf Latenzen wie CPUs. Bei THG scheint IGP OC dagegen ordentlich was zu bringen im GPU-Limit. Kann es vielleicht sein, dass das Frontend bei 11 CUs schon limitiert? Oder vielleicht die ROPs? Weiß jemand wie die 24CU-IGP aufgebaut ist (Anzahl Rasterizer und ROPs)?

reaperrr
2018-02-13, 18:56:35
Weiß jemand wie die 24CU-IGP aufgebaut ist (Anzahl Rasterizer und ROPs)?
4 Rasterizer und im Vollausbau mit 24 CUs auch 64 ROPs (in der 20CU-Variante sind 32 ROPs deaktiviert).
Also das Maximum dessen, was mit GCN/Vega aktuell möglich ist.

mczak
2018-02-13, 20:07:22
Bei CB gab es einen Skalierungstest mit schnellerem RAM:

Mir scheint, da gab's Probleme bei ddr4-3600.
Einen schönen Speicherskalierungstest (leider bloss 1 Game) gibt's z.B auch hier, da ist auch single channel dabei:
https://www.techspot.com/review/1574-amd-ryzen-5-2400g-and-ryzen-3-2200g/page8.html
Zumindest von ddr4-2133 bis ddr4-3200 ist die Skalierung (mit DC) doch ordentlich, für 50% mehr Speicherbandbreite gibt's mehr als 35% Performance (gut das ist ein altes Spiel, dürfte heutzutage wegen der einfachen Shader sehr bandbreitenlimitiert sein, wobei da ja sogar mit dem 2200G gemessen wurde, beim 2400G müsste die Skalierung ja noch besser sein).

basix
2018-02-14, 00:00:30
Ich habe nochmals nachgeschaut: Im DRAM Preistief Mitte 2016 waren 4GByte gerade mal 12.5$. Nimmt man 2 GByte in geht von sich ein wenig entspannenden Speicherpreisen bis Anfang 2019 aus, könnten 10$ dafür rauskommen. Für den potentiellen Performancesprung empfinde ich das nicht als allzu viel. Die entsprechenden SKUs sind dann sicher gut 50$ oder gar mehr teuerer im Mobile Sektor, beim Desktop müsste man schauen. Aber die 50$ mehr wären aus Enduser Sicht gut investiert, sobald man dann die dGPU weglassen kann. Eine Desktop GTX 1030 kostet heute ca. 70 Euro, eine 1050 etwa das doppelte. Auch wenn dann Ampere / Navi mitspielen werden, ca. 50$ mehr könnte AMD für 10$ Aufwand verlangen. Für die Marge wäre das gut. Vor allem wenn man z.B. anstatt 150$ dann 200$ verlangen kann.

iuno
2018-02-14, 03:42:36
Weiss man eigentlich, ob der Ryzen 3 2200U ein beschnittener RR oder ein eigener Chip ist? Habe dazu nichts gefunden. Es war ja wohl eine 2C+3CU APU fuer embedded geplant, mit 4-15 W. 2200U liegt bei 12-15 W.
Ich hatte gehoft, dass da mal noch was passives oder gar ein Tablet kommt. Aber gut, erstmal sollte es gute Laptops geben...

Relic
2018-02-14, 09:00:00
Weiss man eigentlich, ob der Ryzen 3 2200U ein beschnittener RR oder ein eigener Chip ist? Habe dazu nichts gefunden. Es war ja wohl eine 2C+3CU APU fuer embedded geplant, mit 4-15 W. 2200U liegt bei 12-15 W.
Ich hatte gehoft, dass da mal noch was passives oder gar ein Tablet kommt. Aber gut, erstmal sollte es gute Laptops geben...

AMD hat im Moment nur Summit Ridge und Raven Ridge als aktuelle CPU Dies.

bbott
2018-02-18, 15:19:55
Das ist ne 65 Watt Desktop CPU im 15 Zoller haste vermutlich nich genug Platz für die nötige Kühlung.Intel Notebook CPUs maxen deshalb vermutlich bei 45 Watt.
Es sollen bald 35 Watt Ryzen APU kommen,die könnte man auch im Notebook mit 580 oder Vega verbauen.

https://videocardz.com/75004/asrock-and-asus-list-ryzen-5-2400ge-and-ryzen-3-2200ge-low-power-raven-ridge-apus

Also mein HP 8510p mit 15,4" hat einen C2D 35W mit einer ATI Mobile HD2600 mit ebenfalls 35W(?). Die 70W sind eigentlich gut kühlbar mMn.

Complicated
2018-02-18, 15:34:46
Es war ja wohl eine 2C+3CU APU fuer embedded geplant, mit 4-15 W. Codename war Banded Kestrel. Der findet sich allerdings auf der Server Roadmap:
https://www.golem.de/news/roadmap-amd-plant-apus-mit-ddr4-3200-und-48-kern-cpus-1705-127781.html
Bei den APUs erscheinen Horned Owl (4 Kerne mit Vega-iGPU mit 11 CUs) und Banded Kestrel (2 Kerne mit Vega-iGPU mit 3 CUs) im 14LPP-Node, gefolgt von Grey Hawk und River Hawk mit gleicher Ausstattung, aber mit niedrigerer TDP dank 7 nm. Horned Owl folgt auf Merlin Falcon (https://www.golem.de/news/merlin-falcon-amds-neue-embedded-chips-unterstuetzen-ddr4-speicher-1510-117017.html) und ist das Enterprise-Pendant von Raven Ridge (https://www.golem.de/news/amd-zen-apu-raven-ridge-bekommt-vega-grafik-und-neuen-video-core-1705-127778.html) für Desktop und Mobile. Der Vorgänger von Banded Kestrel ist Brown Falcon (https://www.golem.de/news/g-serie-amds-neue-embedded-falken-nutzen-ddr4-1602-115812.html) (Embedded) alias Stoney Ridge (https://www.golem.de/news/bristol-ridge-stoney-ridge-verbesserte-carrizo-chips-fuer-notebooks-1606-121209.html) (Desktop/Mobile).

reaperrr
2018-02-18, 16:21:10
Es war ja wohl eine 2C+3CU APU fuer embedded geplant, mit 4-15 W.
Zwischen Carrizo und Stoney sind auch einige Monate ins Land gezogen. Der 2+3-Chip wird noch immer geplant sein bzw. sich in der Endphase von Design/Validierung befinden.

basix
2018-02-18, 20:34:54
Ach ja noch wegen den 0.03um2 pro SRAM Zelle: Intel erreicht in 10nm eine Density von 20-23 Mbit/mm2 und GloFo >17 Mbit/mm2. Das ergibt bei GloFo <8mm2 für 16 MByte und somit passt das ziemlich gut zu den 8MByte L3 mit 16mm2 von Summit Ridge

Complicated
2018-02-18, 21:43:56
Zusätzlich musst du bei AMD die HDLibs dazu rechnen um die Transistordichte mit Intel zu vergleichen. Ich will damit sagen, dass die Zahlen von GF noch nicht das Endergebnis für AMD sind.

Hier noch mal als Erinnerung was ich meine:
http://cdn.wccftech.com/wp-content/uploads/2017/02/AMD-Ryzen-Slide-5.jpg

basix
2018-02-19, 07:08:18
Bei HD Libs sind es nochmals +20-25% Density. Faktor 2 = HC; Faktor 2.5 = HD gegenüber 14nm. Also im besten Fall 6.4mm2 für 8 MByte.

Edit: jetzt wo ich es sehe: Irgendwie komme ich auf um Faktor 2 zu kleine Flächen im Vergleich zu 14nm. Weil Faktor 5 wird es sicher nicht werden.

mboeller
2018-02-19, 07:17:45
Bei HD Libs sind es nochmals +20-25% Density. Faktor 2 = HC; Faktor 2.5 = HD gegenüber 14nm. Also im besten Fall 6.4mm2 für 8 MByte.

Edit: jetzt wo ich es sehe: Irgendwie komme ich auf um Faktor 2 zu kleine Flächen im Vergleich zu 14nm. Weil Faktor 5 wird es sicher nicht werden.

https://fuse.wikichip.org/news/641/iedm-2017-globalfoundries-7nm-process-cobalt-euv/4/ aus dem anderen Thread

HP 14nm: 0.080 µm² -> 7nm: 0.0353 µm²

Wenn also ZEN 16mm² für 8MB benötigt, dann braucht ZEN2 für 16MB 14mm²

basix
2018-02-19, 13:09:08
https://fuse.wikichip.org/news/641/iedm-2017-globalfoundries-7nm-process-cobalt-euv/4/ aus dem anderen Thread

HP 14nm: 0.080 µm² -> 7nm: 0.0353 µm²

Wenn also ZEN 16mm² für 8MB benötigt, dann braucht ZEN2 für 16MB 14mm²

Richtig, mit den HD Libs sind es aber 0.0279 µm², dementsprechend wären es 11.2 mm². Also irgendwas um den Dreh zwischen 11-14 mm².

Nimmt man HD Libs und kommt bei 23 mm² für 32MB heraus, rechnet Flächeneinsparungen bei L1 und L2 dazu (die werden wahrscheinlich nicht grösser pro Core) würde der L1-L3 Cache bei 8C + 32 MB L3$ in etwa 4-5mm2 mehr Fläche beanspruchen als heute bei 4C + 8MB L3$. Ausgehend von heute 44 mm² für ein CCX also ca. 50 mm² für ein hypothetisches 8C CCX. Fragt sich, ob sich der zusätzliche L3 auch wirklich lohnt in der Rechnung.

Complicated
2018-02-19, 13:37:06
Wohl eher nicht, da AMD den L3 als Victim Cache nutzt. Derzeit hat der 8-core ja 4 MB L2 Cache insgesamt und die 16 MB L3 sind Victim. Sollte der CCX auf 8 Core vergrößert werden ändert sich ja nicht zwangsweise die daraus gefertigte SKU und ohne mehr L2 Cache wird wohl auch mehr L3 Cache hier nicht den großen Nutzen haben. Ich vermute mal die Kostenersparnis wiegt hier stärker bei weniger Fläche als der Performancegewinn mit verdoppeltem L3 Cache.

Der 8-core CCX profitiert ja durch das wegfallen der Inter-CCX Kommunikation in der Latenz bei CPUs bis 8 Kernen. Verkleinert man das Die noch so weit wie irgend möglich kann man einiges an Geld sparen bei 4-Core und 6-Core SKUs für Desktops und Mobile. Für die großen Server-Chips ergibt sich bei diesem Ansatz, dass man deutlich mehr Infinity-Fabric SerDes verbauen müsste um über die 4x8=32-Core Grenze zu kommen, falls gewollt. Andererseits profitieren auch die Server SKUs vom Wegfall des internen IF zwischen den CCX.

Wenn ich mir dazu diesen detailierten Artikel anschaue:
https://www.nextplatform.com/2017/07/12/heart-amds-epyc-comeback-infinity-fabric/

https://3s81si1s5ygj3mzby34dq6qf-wpengine.netdna-ssl.com/wp-content/uploads/2017/07/epyc-image005.png
Müssten die 8-Core CCX auch Änderungen im CPU-Core-Mesh beinhalten. Ich bin gespannt wie das dort aussehen wird mit 8 anstatt 4 Core-Complexen pro CCX

mboeller
2018-02-19, 14:02:15
Richtig, mit den HD Libs sind es aber 0.0279 µm², dementsprechend wären es 11.2 mm². Also irgendwas um den Dreh zwischen 11-14 mm².


und L3 läuft dann mit halben CPU-Takt?

basix
2018-02-19, 14:44:43
Halber Takt sicher nicht, aber vielleicht nur 70% oder so. Meiner Meinung würde es auch Sinn machen, den L3 Takt vom Kerntakt zu entkoppeln wie bei Intel. Umso höher der Kerntakt, desto eher säuft dir der Cache den Strom weg.

Ausserdem: Der 7nm HD-Lib SRAM ist schneller als der 14nm HC-Lib SRAM.
https://fuse.wikichip.org/news/641/iedm-2017-globalfoundries-7nm-process-cobalt-euv/4/

Um es so zu sagen: HD Lib und verdoppelter L3$ machen nur Sinn, wenn man den L3-Takt reduziert und dementsprechend von Kern entkoppelt. Verdoppelter L3$ macht nur Sinn mit HD Lib, ansonsten zu viel Flächenbedarf.

Wie Complicated schon sagt: CCX auf 8 Kerne aufbohren, L3$ bleibt bei 2MB pro Core. Das würde am meisten Sinn machen und geringste Kosten bedeuten. Ob man jetzt auf HD-Lib setzen kann, hängt von den Performance Zielen ab und ob der L3 vom Kerntakt entkoppelt wird. Meiner Meinung nach wäre das sehr sinnvoll. Vor allem im Mobile Bereich ist ein stromsparender Cache Gold wert.

Setsul
2018-02-19, 19:33:32
@Complicated/basix: Ihr dürft die HDLibs nicht doppelt einrechnen.
Entweder HP->HP, also 0,080->0,0353 oder HD->HD, also 0,064->0,0269.
0,080->0,0269 wären es nur wenn ihr euch sicher seid, dass AMD bei 14nm HP verwendet, aber bei 7nm auf HD wechseln wird.

@Complicated:
Aufpassen, in dem Artikel werden einige Sachen durcheinandergeworfen.
"SDF enables coherent communications among caches and between caches and memory. There are four fully interconnected core complexes on a Zeppelin die (see below for much more detail on Zeppelin). Each Infinity Fabric on-die link is four-bit point to point."
AMD nennt die Dinger leider manchmal "CPU Complex" und manchmal "Core Complex" aber es sind definitiv nur 2 CCX pro Zeppelin die. Kerne passen auch nicht, das sind definitiv 8.
IF ergibt auch absolut keinen Sinn um die 4 L3 cache slices zu verbinden. IF ist für Kohärenz und die 4 slices können garantiert nie die gleichen cache lines enthalten dank interleaving, IF wäre also overkill. Dann noch die niedrige Auflösung und nirgends das infinity Symbol wie in den anderen 2 Bildern, da bin ich mir ziemlich sicher, dass sie das selbst gebastelt haben um irgendwie ein Bild für cache coherency zu haben. Die Wirklichkeit sieht anders aus.

Jetzt zu den eigentlichen Problemen:
1. 4 Kerne sind geometrisch fast ideal. Die Latenz zu 3 von 4 slices ist fast gleich und man bekommt ein Rechteck. Bei 8 slices kannst du das vergessen. Man kann ungefähr kompensieren was einem die Verkleinerung an Unanehmlichkeiten beschwert wenn man die Länge genauso verkürzt. Wenn man auf einmal einen doppelt so breiten Cache hat dann kann man das nicht mehr ausgleichen, das ist in 7nm nicht weniger problematisch als in 14nm. 40 Takte sind nicht überragend für einen L3, 80 Takte wären eine Katastrophe (siehe mboeller). Die Kerne halb so breit und dafür doppelt so lang zu machen ist auch ekelhaft.

2. Kommunikation mit den L2s. Alles vom oder zum RAM kommt über IF, da einfach mal doppelt soviele L2s dranzuhängen ist nicht so einfach. Das geht ja alles direkt in den L2 und nicht erst über den L3 wie bei Intel. Dann müssen die L2s auch untereinander kommunizieren können.
4 Kerne jeder zu jedem sind 6 Verbindungen. Fast die gleichen Kosten wie jeden Kern mit einem Zentrum zu verbinden (4 Verbindungen + Zentrum). 8 Kerne jeder zu jedem sind 28 Verbindungen. Außer der L3 speichert die tags für alle L2s auch noch. Wäre aber extrem redundant so nah wie die L2 tags and den L3 tags liegen.

@basix:
AMD hat für Mobile den eleganten Weg gewählt "der stromsparendste L3 ist kein L3" und einfach nur die Hälfte verbaut. Die Symmetrie im L3 ist Absicht, einfach weglassen und der Rest vom CCX bleibt unverändert. Sicherlich nicht die ausgefeilteste Methode, aber wenn es funktioniert...
Man müsste sich mal ansehen wieviel mehr L3 außerhalb von Servern überhaupt bringt. Intel hatte früher ja 2,5MB/Kern für Server und "nur" 2MB/Kern für den Normalvebraucher. Wieviel davon war nur aus dem Grund dass einige Dies davon ja auch Xeons werden? Den i5s und i3s scheint die Beschneidung auf 1,5MB/Kern auch nicht viel zu schaden.
Bei AMD ist der L3 als Victim Cache für die L2s auch nicht wirklich nützlich für die GPU. Kann sein, dass AMD einfach bei der Halbierung bleibt. Dann ist eben die Frage lohnt sich die Entkopplung bei Servern auch? Die Kernen sollten ja unabhängig voneinander runtertakten können. Von der Latenz mal abgesehen könnte man dann entsprechend je nach Summe der Kerntakte auch den L3 etwas runterfahren.

Complicated
2018-02-19, 20:03:02
@Setsul
Ich denke hier liegt tatsächlich ein Schreibfehler vor.
"SDF enables coherent communications among caches and between caches and memory. There are four fully interconnected core complexes on a Zeppelin die (see below for much more detail on Zeppelin). Each Infinity Fabric on-die link is four-bit point to point."

Ersetze "Zeppelin die" durch CCX und es ergibt wieder Sinn wenn als "Core-Complex" ein Kern+L2+L3 gemeint ist. Aber im Gesamtkontext ist die Verwendung hier wohl auch falsch

Auch hast du Recht damit, dass für die "Cache Coherence" innerhalb eines CCX keine Infinity Fabric zum Einsatz kommt. Auf dem Bild ist keines eingezeichnet korrekterweise, doch der Text spricht davon.

WCCF hat einen Foliensatz von der ISSCC der wohl besser geeignet ist und detaillierte Zahlen bietet: https://wccftech.com/amd-zeppelin-soc-isscc-detailed-7nm-epyc-64-cores-rumor/
https://cdn.wccftech.com/wp-content/uploads/2018/02/AMD-ISSCC-Zeppelin-Zen-EPYC-Threadripper-Ryzen_15-1480x823.png
https://cdn.wccftech.com/wp-content/uploads/2018/02/AMD-ISSCC-Zeppelin-Zen-EPYC-Threadripper-Ryzen_5-740x412.png
https://cdn.wccftech.com/wp-content/uploads/2018/02/AMD-ISSCC-Zeppelin-Zen-EPYC-Threadripper-Ryzen_7-740x412.png
Das scheint hier genau der Fall zu sein.
Außer der L3 speichert die tags für alle L2s auch noch. Wäre aber extrem redundant so nah wie die L2 tags and den L3 tags liegen.

Setsul
2018-02-19, 21:52:12
Ja, das geht über einen Schreibfehler hinaus.

Ich hab mit den Folien so meine Probleme. Momentan kommen die nur von WCCF, niemand sonst scheint die zu haben und ein paar von den Werten scheinen komisch.
35 Takte zum L3 weiß ich nicht ob das stimmt bei Raven Ridge, könnte natürlich sein wegen der Größe.
50 misses vom L2 zum L3 während Intel seit ewigen Zeiten mit 16 rumkrebst und dann bei 200 misses zum L3 "nur" 96 zum RAM scheinen irgendwie auch komisch.


Ich kann mir immernoch nicht vorstellen, dass jede slice einfach die tags vom nächsten L2 dupliziert. Das einzig sinnvolle wäre alles bei jeder slice die tags von dem zu sammeln was auch in der slice landen könnte. Entsprechend noch 4 bits dranhängen in welchen L2s die line liegt. Dann kann man nach dem L3 miss gleich eine Anfrage zum richtigen L2 schicken. Selbst wenn man den Umweg über den L3 nimmt und die L2s nicht direkt verbindet gehen aber immernoch die Verbindungen von jedem L2 zu jeder slice von 16 auf 64 hoch. Selbst für den einfachsten Fall, dass der L2 inclusive ist, braucht man aber bei 4 Kernen schon tags für 512KB die natürlich nicht alle verwendet werden wenn es Duplikate gibt. Leider damit sich die 4 8-way L2s nicht in die Quere kommen können braucht man für das tag array dann 32-way. Bei 8 Kernen entsprechend 64-way. Das kostet alles.


Am einfachsten ist natürlich immer die Frage: Wieso hat AMD nicht jetzt schon 8 core CCX gebaut wenn die so toll sind?

Pirx
2018-02-19, 22:24:57
Als Laie sieht es jedenfalls relativ einfach aus, die CCX um mehr Kerne zu erweitern. Schon komisch, daß man das nicht gleich gemacht hat.

Complicated
2018-02-19, 22:54:49
Ich denke das hat mit der Anbindung von 8 Kernen an gemeinsame Caches zu tun. Es benötigt ja ein deutlich komplexeres Mesh und wer weis wie viel Platz auf dem Die dafür benötigt wird, vielleicht daher erst in 7nm. AMD nutzt keinen Ringbus da sie ein MOESI-Protokoll nutzten. Hier kurz die Eigenschaften:
https://de.wikipedia.org/wiki/MOESI
Das MOESI-Protokoll ist eine komplizierte Variante des MESI-Protokolls. Es vermeidet das Zurückschreiben von modifizierten Cache-Lines, wenn andere CPUs diese lesen wollen. Stattdessen wird der aktuelle Wert bei jeder Veränderung zwischen den Caches direkt propagiert (siehe Zustand Owned).

MOESI bietet keinen wesentlichen Vorteil gegenüber MESI, wenn das Verbindungsnetzwerk zwischen Prozessoren und Speichercontroller ein Bus ist. Es ist hingegen bei direkten Netzwerken von Vorteil, wie zum Beispiel bei AMD-Opteron-Systemen. Das Vermeiden des Zurückschreibens von modifizierten Cache-Lines sorgt hier für die Entlastung von Verbindungsnetzwerk und Speichercontroller. Außerdem kann die Kommunikation zwischen zwei oder mehreren CPUs bzgl. Latenz und Übertragungsrate signifikant besser sein als zwischen CPU und Hauptspeicher. Bei Multicore-CPUs mit jeweils eigenen Caches pro Core ist dies meist der Fall.
Dresdenboy hatte zum Ryzen-Launch folgendes zum Speichersubsystem geschrieben:
http://www.planet3dnow.de/cms/26077-details-und-analyse-der-zen-architektur-nach-der-hot-chips-konferenz/subpage-speichersubsystem-im-detail/
AMD wird diesen Quad-Modul-Kernbauplan für alle im Moment angekündigten Chips beibehalten. Das bedeutet also, dass erstens die 8-Kern-Version „Summit Ridge” über 2x 8 MiB = 16 L3-Cache verfügen wird und zweitens auch die Zen-APUs mit GPU-Teil und nur einem Zen-Quad-Modul erstmals ebenfalls über einen L3-Cache verfügen werden.
Entgegen anderslautender Gerüchte setzt AMD beim Cache-Aufbau weiterhin auf exklusive L3-Caches nach der „Victim Strategy”. Das heißt, dass Daten in der Regel entweder direkt in den L1- oder in den L2-Cache geladen werden: Fallen Daten aus dem L2 heraus, landen diese „Opfer” (victims) im L3. Bei Intel-Designs liegen L2-Daten dagegen automatisch immer als Kopie auch im L3, was einerseits die effektive L3-Cachegröße und damit indirekt auch die L2-Größe begrenzt, andererseits die Kern-zu-Kern-Kommunikation vereinfacht.

Cache-Organisation und -Aufbau gehen somit Hand in Hand. Weil AMD kein inklusives Cachedesign wählte, ein Datenaustausch über den L3 also ohehin fast unmöglich ist, benötigt man auch keinen einzelnen gemeinsamen L3-Cache, sondern kann sich mit simplen 8-MiB-Modulen begnügen. Insbesondere bei Serverchips mit vielen Kernen und noch mehr Cache, wird die Cacheorganisation zum Problem. AMD setzt bei den Serverchips aber auch auf einen bewährten MCM-Ansatz, mit dem von vorne herein keine gemeinsamen L3-Caches möglich wären. Somit ist die Designentscheidung insgesamt nachvollziehbar und schlüssig. Als Speichermodell findet die bewährte und schon von K8/K10 bekannte MOESI-Strategie Anwendung.
Auch die Latenzen scheinen dort bestätigt zu sein wie oben auf den Folien:
Pi mal Daumen und mit der aufgesetzten dunkelgrünen Brille optimistisch geschätzt, dürften sich die Latenzen bei weniger als 15 Takten (L2) und etwas über 30 Takten (L3) bewegen. Letzterer wird wie Bulldozer in einer gesonderten Taktdomäne betrieben, sodass die Latenzen, die in Kerntakten gerechnet werden, entsprechend schlechter ausfallen können. Dies war bei Bulldozer ähnlich und selbst Intel wendet die gleiche Technik seit der Skylake-Architektur an. Dessen L3-Latenzen betragen im schlimmsten Fall sogar über 40 Takte. Da AMD jedoch das simplere Cache-Design (kein Ringbus) verwendet, sollte am Ende ein kleiner Vorteil für AMD übrig bleiben.

mboeller
2018-02-20, 08:44:54
@Complicated/basix: Ihr dürft die HDLibs nicht doppelt einrechnen.
Entweder HP->HP, also 0,080->0,0353 oder HD->HD, also 0,064->0,0269.
0,080->0,0269 wären es nur wenn ihr euch sicher seid, dass AMD bei 14nm HP verwendet, aber bei 7nm auf HD wechseln wird.


tun sie. Wenn du den Artikel von wikichip (https://fuse.wikichip.org/news/641/iedm-2017-globalfoundries-7nm-process-cobalt-euv/4/) mit dem Bild von Complicated (hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11633234&postcount=1802) vergleichst (0,0806 für Standard 6t SRAM Zelle) dann passt das schon sehr gut zusammen. Nur die "mm²" in dem Bild passen gar nicht. Das sind wohl eher "µm²"

Pirx
2018-02-20, 09:38:01
falscher Thread

Setsul
2018-02-20, 10:02:22
@Complicated:
Meine Bedenken sind nicht die Größe sondern Latenz und Energie. Such doch mal auf dem Zen Die shot die Verbindungen. Die sieht man nicht, klein bzw. in anderen layern. Die Größe ist lächerlich. Aber 4 mal soviele Verbindungen über die doppelte Entfernung sind weder in 14nm noch in 7nm angenehm. Wenn AMD wollte hätten sie auch jeden CCX mit jedem verbinden können, nicht nur jedes Paar/jeden Die mit jedem. Auf dem Package ist genug Platz.

@mboeller:
Ist das "tun sie" auf die erste oder die dritte Zeile bezogen? Das passt schon alles, AMD schummelt da ganz gut zu Marketing-Zwecken. 0,080 ist die 14nm GF HP SRAM, 0,0588 ist Intel 14nm LV SRAM.
https://fuse.wikichip.org/news/525/iedm-2017-isscc-2018-intels-10nm-switching-to-cobalt-interconnects/5/
Das hat alles nichts damit zu tun was wirklich verwendet wird.
Kann auch sein, dass Marketing einfach wieder Fehler gemacht hat, mm² statt µm² und Intel gibt Prozessgrößen immer mit LV statt mit HP an, wirft also schon seit Jahren mit diesen 0,0588 um sich.

SKYNET
2018-02-20, 11:02:23
mhhh, ob die neue APU dann wohl mit ner 1050 gleichziehen kann? sollten dann ja alle units aktiv sein und mit entsprechend schnellen speicher?

dann wirds nämlich interessant für meine mediakiste... die q6600 gurke samt 280x in rente schicken... und endlich matx :redface:

Complicated
2018-02-20, 11:11:43
Wenn AMD wollte hätten sie auch jeden CCX mit jedem verbinden können, nicht nur jedes Paar/jeden Die mit jedem. Auf dem Package ist genug Platz.
Ich bezweifle, dass dies ohne zusätzliche Layer möglich ist. Die Kosten dafür sind nun nicht gerade klein. Wie du ja auf den Folien sehen kannst sind jetzt schon 4 Layer für die Verbindungen in Gebrauch. Ein Dieshot kann ja jeweils nur einen Layer zeigen.

deekey777
2018-02-20, 11:15:04
@SKYNET: Welche neue APU?

SKYNET
2018-02-20, 11:41:06
@SKYNET: Welche neue APU?

nun, denke da sollte noch was kommen mit mehr als vega11... dort sind doch immernoch nicht alle einheiten aktiv... mindestens 896 oder was mit 1024 shadern, sollte bestimmt noch aufschlagen?

mit 1024 shadern dürfte das ding locker ne 1050 rauchen.

Unicous
2018-02-20, 11:55:36
Der Raven Ridge Die hat 11 CUs. Mehr wird es voraussichtlich erst mit dem Nachfolger geben.

dildo4u
2018-02-20, 12:01:22
Für GTX 1050 Performance braucht man massiv mehr Bandbreite,macht wenig Sinn Heute mehr CU zu verbauen so lange man auf DDR4 beschränkt ist. https://www.techpowerup.com/reviews/AMD/Ryzen_5_2400G_Vega_11/12.html

Eine 1050 braucht dafür über 100GB/sec,DDR4 maxt bei 50 GB/sec. http://www.legitreviews.com/g-skill-trident-z-4000mhz-ddr4-memory-kit-review_176358/3

2020 sollte es aber APU mit DDR5 Support geben.

basix
2018-02-20, 17:28:12
Für GTX 1050 Performance braucht man massiv mehr Bandbreite,macht wenig Sinn Heute mehr CU zu verbauen so lange man auf DDR4 beschränkt ist. https://www.techpowerup.com/reviews/AMD/Ryzen_5_2400G_Vega_11
/12.html

Eine 1050 braucht dafür über 100GB/sec,DDR4 maxt bei 50 GB/sec. http://www.legitreviews.com/g-skill-trident-z-4000mhz-ddr4-memory-kit-review_176358/3

2020 sollte es aber APU mit DDR5 Support geben.

Richtig, ich hoffe aber immer noch auf ein Wunder für Zen 2 + Navi:
2-4 GByte Low Cost HBM + HBCC @ 100 GB/s mit 256-512 Bit @ 1.6-3.2 Gbit/s. Ohne Interposer, ohne Die Stacking und TSV (16-32Gbit Speicherdie gibt es bereits, Low Cost HBM ohne Logic Layer ist in Planung). Ganz herkömmliches Packaging auf einem Substrat. Das sollte zumindest bei den SKUs am oberen Ende des Spektrums eingesetzt werden und nicht die Marge schädigen, sondern eher zu mehr Marge führen, da man sie teurer verkaufen kann.

Mit den oben genannten Daten und 1024-1280 Shader-Cores @ 1+ GHz würde man im 1050er+ Bereich wildern. Für ein Ultrabook wäre das genial, da damit 1080p @ High Details in den allermeisten Fällen möglich werden würde.

mczak
2018-02-20, 19:56:26
Mit den oben genannten Daten und 1024-1280 Shader-Cores @ 1+ GHz würde man im 1050er+ Bereich wildern. Für ein Ultrabook wäre das genial, da damit 1080p @ High Details in den allermeisten Fällen möglich werden würde.
Naja, also da braucht man dann aber auch noch das entsprechende Power-Budget dazu. Mit 15W TDP wird das wohl nichts, das müsste dann schon bei 30W+ angesiedelt sein.
Ausserdem ist GTX 1050 Niveau dann in dem Zeitraum auch nicht mehr sehr berauschend, ist dann wohl eher wieder vergleichbar mit dem kleinsten Chip (also wie heute MX 150).

Pirx
2018-02-20, 20:21:40
der Fenghuang Raven geistert ja noch rum, für AM4 dürfte der aber zu groß sein

https://www.computerbase.de/2017-12/amd-apu-28-cus-fenghuang-raven/

BoMbY
2018-02-20, 20:43:58
FH-Raven ist der OPN "2G11SRD1P4MF6_30_N" nach für eine Gaming-Konsole, wenn AMD das Namensschema nicht geändert hat. PS und XBone Samples laufen ebenfalls mit G an zweiter Stelle (wo normalerweise sonst z.B. 'D' für Desktop, 'M' für Mobile oder 'S' für Server steht)

Setsul
2018-02-20, 21:45:17
@basix:
Also zum mitschreiben, du hättest gerne:
-HBM, also ein Standard der nur existiert für stacked DRAM
-aber ohne stacking
-dann aber trotzdem 32Gb was es nur auf Dies gibt die doppelt so groß sind wie HBM auch ohne dass Fläche wegfällt die man für TSVs reserviert hat
-zusätzlich dann bitte aber höheren Takt
-und bitte irgendwie einfach den minimum pitch ignorieren und das einfach genauso klein machen wie auf einem Interposer nur bitte mit normale Substrat.

Dürfte schwierig werden, sehr schwierig.
HBM ist dafür völlig sinnlos. Es muss Platz für TSVs reserviert werden, selbst wenn man sie nicht nutzt.
In der Größe gibt es keine 32Gb Dies. Entweder stacken oder größere Dies. Wenn auch größere Dies gehen dann willst du einfach nur GDDR mit etwas breiterem Interface.


Es wäre viel einfacher 2 GDDR6 chips draufzukleben, so viel Platz nimmt das auch nicht weg. Bei 64 bit Interface und nur 2 statt der üblichen 8-16 Chips lässt sich sicher auch der Stromverbrauch verschmerzen. Vielleicht noch ein bisschen mit der Memory Controller Voltage rumspielen weil die Dinger so nah dran sind und generell noch minimale Optimierungen und man könnte das Ding praktisch morgen mit existierenden Teilen bauen.

basix
2018-02-20, 22:23:04
@basix:
Also zum mitschreiben, du hättest gerne:
-HBM, also ein Standard der nur existiert für stacked DRAM
-aber ohne stacking
-dann aber trotzdem 32Gb was es nur auf Dies gibt die doppelt so groß sind wie HBM auch ohne dass Fläche wegfällt die man für TSVs reserviert hat
-zusätzlich dann bitte aber höheren Takt
-und bitte irgendwie einfach den minimum pitch ignorieren und das einfach genauso klein machen wie auf einem Interposer nur bitte mit normale Substrat.

Dürfte schwierig werden, sehr schwierig.
HBM ist dafür völlig sinnlos. Es muss Platz für TSVs reserviert werden, selbst wenn man sie nicht nutzt.
In der Größe gibt es keine 32Gb Dies. Entweder stacken oder größere Dies. Wenn auch größere Dies gehen dann willst du einfach nur GDDR mit etwas breiterem Interface.


Es wäre viel einfacher 2 GDDR6 chips draufzukleben, so viel Platz nimmt das auch nicht weg. Bei 64 bit Interface und nur 2 statt der üblichen 8-16 Chips lässt sich sicher auch der Stromverbrauch verschmerzen. Vielleicht noch ein bisschen mit der Memory Controller Voltage rumspielen weil die Dinger so nah dran sind und generell noch minimale Optimierungen und man könnte das Ding praktisch morgen mit existierenden Teilen bauen.

Wie gesagt: Wunder. Aber du musst nicht überall schwarz malen ;)

16 Gbit reicht auch. Mit HBCC noch mehr.
Es gibt auch 2-Stack HBM2. Eigentlich ist es ja egal, solange die Kosten im Rahmen bleiben https://www.extremetech.com/gaming/232777-sk-hynix-adds-hbm2-to-its-product-stack-plans-q3-availability
Es gibt Low Cost HBM Ambitionen, wo man eben den Buffer Die weglassen will https://www.tweaktown.com/news/53536/low-cost-hbm-way-hit-mass-market-soon/index.html
Wenn man den Buffer Die weglässt, wäre es natürlich verlockend für sehr kostensensitive Applikation ganz auf Stacking und TSV zu verzichten.
Höherer Takt ist für Low Cost HBM sowieso im Gespräch, um eben die Breite zu reduzieren. 512 bit @ 200 GB/s um genau zu sein (siehe Link oben). Nochmals Breite oder alternativ Takt halbieren, und man wäre am richtigen Ort.
Reduzierte Breite führt wiederum zur Möglichkeit, dass man allenfalls auf Interposer oder EMIB verzichten könnte. In der Industrie dreht sich alles um Kosten, dass hier jemand auf diese Idee kommt halte ich für wahrscheinlich.
GDDR6: OK, mit 64 bit @ 16 Gbit/s erreichst du auch 100 GB/s. Platzbedarf und Stromverbrauch sprechen aber vor allem beim Einsatz für Mobile dagegen (15W Klasse).
Minimum Pitch: Also bitte, HBM2 ist 7.8 x 11.9mm gross. Flip Chip Pad Pitch ist standardmässig 0.225mm und das auch für MCM Packages. Das macht auch bei suboptimalem Layout der Pads locker Platz für 1000+ Pads auf die HBM-Fläche, das reicht für Single Ended Datenleitungen (Single Ended near-GND Tranceiver sind übrigens stromsparender als Differential Pair). Zu Flip Chip Pad Pitch siehe auch http://suddendocs.samtec.com/literature/advanced-package-design-guidlines.pdf oder http://extra.ivf.se/ngl/documents/ChapterF/chapterF.pdf
Ohne uBumps und normalem Flip Chip Packaging: Auch der Prozessor Chip an sich bleibt kostengünstig, da herkömmliche Fertigungstechnologie. Höchstens die minimale Chipfläche wäre noch ein Thema.


Aus meiner Sicht: Technisch ist alles da (MCM, Flip-Chip, HBMx) oder in Vorbereitung (Low Cost HBM). Ist nur die Frage, ob man ohne Die Stacking auskommt oder nicht.

Edit:
Stimmen die Kosten für 16 Gbit Low Cost HBM (Kaufpreis ab Hersteller), sehe ich wenig Gründe die dagegen sprechen.

Edit2:
Naja, also da braucht man dann aber auch noch das entsprechende Power-Budget dazu. Mit 15W TDP wird das wohl nichts, das müsste dann schon bei 30W+ angesiedelt sein.
Ausserdem ist GTX 1050 Niveau dann in dem Zeitraum auch nicht mehr sehr berauschend, ist dann wohl eher wieder vergleichbar mit dem kleinsten Chip (also wie heute MX 150).
Bei 7nm spricht man GloFo von >65% geringerem Stromverbrauch. Umgedreht entspricht das Faktor 3. Hier +50% Shader bei +50% Takt anzunehmen ist jetzt nicht völlig weltfremd, vor allem wenn Navi als Architektur noch potentiell energieefizienter unterwegs sein kann (besser sollte) als Vega. Ausserdem: Auch die heutigen RR sind oft mit 25W unterwegs bei Spielen ;) Und 1050er Niveau: Ich würde sagen, das wäre fantastisch für eine iGPU. Auch wenn man relativ zu den grösseren Brüdern nicht schneller ist, kann man doch viele Spiele in 1080p und in hohen Details geniessen oder bei 2018+ Spielen halt mittlere Qualitätsstufe. Das ist doch ein riesen Unterschied zu 720p Low Details 20-30fps Ruckelorgien wie mit den Intel iGPUs. Ich werde jedenfalls als erstes Gothic 3 @ PCGH Config drüber lassen und ein wenig SW - Battlefront 2 :D

SKYNET
2018-02-21, 01:29:04
Der Raven Ridge Die hat 11 CUs. Mehr wird es voraussichtlich erst mit dem Nachfolger geben.

meinst die haben wirklich nur 11? ich denke eher 12 evtl. sogar 16 aber diese nicht aktiv... als kleine reserve falls intel was nachschiebt bzw. um nen "refresh" zu bringen wenn intel die neuen prozzis mit AMD grafik auf den markt bringt.

Unicous
2018-02-21, 04:06:38
Es sind 11.:rolleyes:

Ich "meine" das nicht, das sieht man auf dem die shot.

SKYNET
2018-02-21, 10:19:04
Es sind 11.:rolleyes:

Ich "meine" das nicht, das sieht man auf dem die shot.

grad mal angeschaut, stimmt...

dann sollten sie da mal was raufpacken, sehe noch ne menge verschwendeten platz ;D
https://i.imgur.com/fb4kFYB.png

dildo4u
2018-02-21, 10:21:35
Das Ding muss ja für 99€ verkauft werden können AMD ist schon im Nachteil gegenüber Intel,da Vega deutlich größer als der Intel IGP Schrott ist.

SKYNET
2018-02-21, 11:10:53
Das Ding muss ja für 99€ verkauft werden können AMD ist schon im Nachteil gegenüber Intel,da Vega deutlich größer als der Intel IGP Schrott ist.

naja, NOCH müssen die so günstig verkauft werden, wenn der zug -hoffentlich- mal richtig fahr aufgenommen hat, wird AMD die preise auch anziehen, der CPU teil ist konkurrenzfähig, die GPU einheit massivst überlegen... lassen wir uns mal in 2019 überraschen.

Pirx
2018-02-21, 11:21:51
Viele, wenn nicht die meisten ("Bürorechner"), haben keinen Bedarf an der schnelleren GPU (der CPU-Teil ist wichtiger).

Complicated
2018-02-21, 11:25:17
Das Ding muss ja für 99€ verkauft werden können AMD ist schon im Nachteil gegenüber Intel,da Vega deutlich größer als der Intel IGP Schrott ist.
Ich habe mir Aufgrund deiner Bemerkung mal die Dies von älteren APUs und Intel CPUs angeschaut, da bei mir immer noch im Kopf war, dass AMDs APUs den größeren Platzbedarf der GPU durch das weglassen des L3 Caches kompensieren. Das war ja mal ungefähr der selbe Flächenbedarf.

Und Raven Ridge ist ja die erste APU die L3 Cache besitzt. Der Vergleich zeigt wie gering der Flächenanteil für L3 mittlerweile geworden ist seit Haswell:

Haswell:
https://en.wikichip.org/w/images/thumb/7/72/haswell_die_%28quad-core%29_%28annotated%29.png/850px-haswell_die_%28quad-core%29_%28annotated%29.png

Raven Ridge
https://en.wikichip.org/w/images/thumb/c/cc/raven_ridge_die_%28annotated%29.png/950px-raven_ridge_die_%28annotated%29.png

Skylake
http://www.techpowerup.com/img/15-08-18/77a.jpg

Coffee Lake-S
http://extreme.pcgameshardware.de/attachments/972124d1507139719-intel-coffee-lake-s-achtkerner-sollen-zur-inkompatibilitaet-mit-z270-co-gefuehrt-haben-650px-kaby_lake_-quad_core-_-annotated-.png

Setsul
2018-02-21, 11:52:45
@basix:
Aber schmarz malen macht Spaß!
Mal im Ernst dein Plan kann so einfach nicht funktionieren.

1. Mit 2 Dies ob stacked oder nicht stacked reichen 16 Gbit auf jeden Fall weil man dann 4GB hat. Ich seh keinen Grund wieso man HBM nehmen sollte, das stacking erlaubt, aber dann nicht mal 2Hi Stacks nimmt und lieber auf die Hälfte der Kapazität verzichtet.
2. Theoretisch definiert, praktisch verkauft es aber keiner. Hynix bietet nur 4Hi und 8Hi an.
3. Richtig, aber auch low cost HBM setzt auf stacking für Kapazität und Bandbreite.
4. Der Platz dafür ist bei HBM trotzdem definiert. Wenn man auf Stacking verzichtet dann braucht man HBM offensichtlich nicht für die Dichte. Wenn es nur um die Kosten geht sind 2 Dies mit halber Dichte (stacked oder nicht stacked) wirklich billiger als ein Die mit doppeltet Dichte? Sowas lassen sich die Hersteller normalerweise bezahlen. Außerdem kommt man dann langsam in sehr komische Bereiche. Was braucht >100GB/s aber <2/4GB? Wenn auch noch DDR RAM dranhängt kann man einfach da mehr Bandbreite reinstecken.
5. Es geht nicht nur um das Interface. Irgendwo müssen die Daten herkommen. Bei GP100/GV100 und Vega hat man gesehen, dass HBM2 momentan nicht mal wirklich auf 2Gbps hochkommt. Und das sind 4Hi Stacks, also <60GB/s pro Die. GDDR6 kommt auch nur auf 14Gbps also 56GB/s pro Die. Jetzt prügel eine Low Cost Variante einfach mal auf das doppelte hoch. Scheint nicht so realistisch, oder? Klar könnte man intern alles verdoppeln, also 4 Channel statt 2 Channel HBM Dies bauen. Aber die sind dann natürlich nur für 2Hi Stacks nützlich, bei 4Hi reichen 2 Channel pro Die. 2Hi will niemand weil HBM ohne Dichte und ohne Bandbreite einfach nicht wirklich sinnvoll ist. Mit jetzigen Dies (~50GB/s bei 2 Channeln = 256bit) und der internen Verdopplung könnte man 2Hi 200GB/s 2GB 1024 bit HBM stacks oder 1Hi 100GB/s 1GB 512 bit low cost HBM stacks bauen. Wer will sowas, wer braucht sowas? Bei Vega 10 war die Empörung groß, dass es nur 8GB gab. HBC für APU mit nur 1GB ist auch sinnlos.
6. Richtig, aber keiner weiß so recht wie sie das bei low cost HBM anstellen wollen. Kann sein, dass die Dinger einfach etwas größer werden. 4Hi Stacks hätten automatisch viel höhere Dichte als GDDR, also was solls?
7. 15W wird etwas knapp. Da gibts momentan nur 10 CUs. Mit 7nm bekommst du dann deine 20 CUs, aber die Konkurrenz steht nicht still und welche xx50 auch immer die Stelle der 1050 einnimmt wird auch entsprechend schneller. Abgesehen davon würden ~100GB mit jetzigen HBM Dies bei ~2Gbps ungefähr 5-6W brauchen. Ich glaube kaum, dass man sich das bei 15W TDP leisten kann.
8. Man braucht etwas mehr als 1000 Pads. HBM2 hat 68 Spalten mal 220 Zeilen. Klar das ist diagonal also nur die Hälfte davon sind wirklich bumps, aber das ergibt schlappe 7480 bumps für einen 1024 bit Stack. Power und Test Pads reduzieren sich nur wenig auch wenn du das Interface auf die Hälfte (1Hi 100GB/s ginge mit intern verdoppelten Dies) oder ein Viertel (man bräuchte doppelt so schnelle Dies) verkleinerst. Es hat schon Gründe wieso man Interposer für HBM braucht.

Welche Kaufpreise ab Hersteller für Low Cost HBM?

EDIT2:
Technisch möglich und technisch sinnvoll sind halt 2 Paar Stiefel. MMn wäre eigentlich die Zeit reif für 64 bit GDDR. Wir brauchen eher mehr Bandbreite als noch mehr VRAM. Ich meine wenn man >256bit Interface braucht und es 32Gbit Dies gibt dann ist das doch völlig unnötig. Was will ich bei nem 16Gbps 256bit Interface (512GB/s) mit 32GB VRAM? Wofür sollte ich das brauchen (https://www.tweaktown.com/tweakipedia/90/much-vram-need-1080p-1440p-4k-aa-enabled/index.html (https://www.tweaktown.com/tweakipedia/90/much-vram-need-1080p-1440p-4k-aa-enabled/index.html)) und was will ich mit so viel Speicher, dass ich bei 60fps maximal ein Viertel davon pro frame lesen kann?

EDIT:
@Complicated:
Das lag aber hauptsächlich daran, dass Bulldozer usw. 2MB L2 pro Modul hatten. Das war einfach schon zu groß und dann noch einen L3 dazu wäre viel zu groß gewesen. Die Katzenkerne hatten nie einen L3 und auch 0,5MB L2 pro Kern. Aber an sich ist das System geblieben, RR hat nur den halben L3.

So klein ist der L3 bei Skylake nicht, wenn man die Streifen zwischen den Kernen ausschneidet und in der Mitte einfügt dann kommt man auf eine ähnliche Größe wie bei Haswell.

Complicated
2018-02-21, 13:05:23
Es ging mir um das Verhältnis zur GPU.

Setsul
2018-02-21, 15:02:20
Also ganz grob Pixel gezählt ist das Verhältnis GPU:Cache ~2,3:1 bei Haswell und ~3:1 bei Kaby Lake.
Ich nehme einfach mal an, dass das Bild mit Namen "650px-kaby_lake_(quad_core)_(annotated).png" nicht Coffee Lake-S zeigt sondern Kaby Lake.

Dann nicht vergessen, dass bei Haswell nur 20 EUs drin sind und bei Kaby Lake 24. Wenn man das einfach mit 24/20 hochrechnet dann wären man bei ungefähr 2,75:1 bei Haswell. Wenn man bedenkt, dass sich in den GPUs noch mehr geändert hat (50% mehr L3 cache usw.) dann finde ich das jetzt alles nicht ungewöhnlich.

Also keine Ahnung worauf du hinaus willst. GPUs mit mehr EUs und mehr encoding/decoding Hardware usw. sind im Verhältnis zu einem L3 der selben Größe etwas größer.


Um zu dildo4u zurückzukommen: Desktop Ryzen APUs und Intel zu vergleichen ist ziemlich sinnlos. Auch wenn man den 2400G noch dazuzählt, im Bereich 99-169$ oder generell im gesamten Desktopbereich gibts nur GT2, also 1/3 bzw. 1/4 der Rohleistung. Wenn man dann Intel wegen der Grafikleistung kauft, macht man was falsch. Natürlich kostet 3 bzw. 4 mal soviel Leistung auch Fläche. Aber das einzige was auch nur annähernd rankommt wäre ein 6585R/6685R/6785R und das sind dann 250-400$.

Es wäre mal interessant zu wissen wie groß genau die GT4 Ungetüme sind, die sollten ja trotz dichterem Prozess noch etwas größer als Vega 11 sein. Wenn man sich anschaut was Intel dafür verlangt bewegt man sich im Bereich 300$ und aufwärts, eher >400$.

4 Kerne + GT3 gibt es bei Kaby Lake gar nicht und selbst 2 Kerne + GT3 kostet >300$. Wieder einfach nur Rohleistung betrachtet ist das nur im Bereich von Vega 6.
Bei Skylake gibt es dann zumindest 4 Kerne + GT4 (kein 4+3), aber die sind definitiv nicht billiger und gibt es nur mit 45W, nicht 15W.

Sowas muss AMD verkaufen, wenn sie alles als 2 Kern Vega 3 2200U verkaufen dann ist der Die natürlich viel zu groß.
Pinnacle Ridge wird interessant, momentan bekommt man mit dem 2400G bzw. 2200G höheren Takt und Support für schnelleren RAM zum gleichen bzw. niedrigeren Preis und obendrauf eben noch die GPU und der einzige Nachteil ist der kleinere L3.
Wenn mit PR dann RR bei gleicher CPU wieder mehr kostet ergibt das Ganze wieder Sinn. Dann kauft man sich Desktop RR nur wenn man die GPU will und zahlt auch mehr. Ansonsten würde AMD die Leute praktisch dazu zwingen ihnen den größeren Die fürs gleiche Geld abzukaufen einfach weil die bessere CPU drauf ist.

Loeschzwerg
2018-02-21, 16:36:23
https://www.computerbase.de/2018-02/amd-epyc-embedded-3000-ryzen-v1000/

Offiziell DDR4-3200 für Ryzen V1807B / V1756B und max. GPU bis 1300MHz. Wundert mich etwas für den Embedded Bereich, die Specs hätte man dann ja fast auch den normalen Desktop APUs geben können.

Edit:
Und meine Lieblingsfrage der letzten Zeit: Gibt es mittlerweile News bezüglich kommenden kleinen Notebooks?

y33H@
2018-02-21, 17:06:40
Nur das Ideapad 720S als 13,3 Zoll - hab es da mit Ryzen 7 und mit KBL-R i5, jeweils 8 GB RAM sowie 256er SSD ...bin auf den Direktvergleich (beide Modelle kosten 1000 Euro) gespannt.

Loeschzwerg
2018-02-21, 17:12:02
Wann dürfen wir mit dem Artikel rechnen? :) Mir missfällt irgendwie immer noch der langsame via SC angebundene Speicher, lasse mich aber gerne von Tests überzeugen.

y33H@
2018-02-21, 19:52:51
Vermutlich Ende nächster Woche oder übernächste, muss gucken. Klar bremst Single Channel, aber in dem Fall gilt das für beide Geräte.

reaperrr
2018-02-21, 23:53:21
https://www.computerbase.de/2018-02/amd-epyc-embedded-3000-ryzen-v1000/

Offiziell DDR4-3200 für Ryzen V1807B / V1756B und max. GPU bis 1300MHz. Wundert mich etwas für den Embedded Bereich, die Specs hätte man dann ja fast auch den normalen Desktop APUs geben können.
AMD verwendet die besten RR-Chips halt für den V1807B und 2700U.

Für die Desktop-Modelle wird AMD den "Ausschuss" verwenden, was Energieeffizienz angeht (in 65W kann man wohl auch Chips auf 2400G-Level bringen, die man in 45W nicht auf V1807B- und 15-25W nicht auf 2700U-Level bekommen hätte).

Außerdem sagen die 1300 MHz maximaler Takt nichts über den Durchschnittstakt aus, der vermutlich auch beim V1807B eher unter 2400G-Niveau liegen wird. Wobei 50 MHz so oder so nicht die Welt sind.

Der offizielle DDR4-3200-Support bedeutet auch nur, dass die Embedded-Kunden wohl Support kriegen, falls es mit dem Takt Probleme gibt. Dass der MC dieser Chips in der Praxis viel mehr mitmacht als bei den Desktop-Modellen bezweifle ich.

Loeschzwerg
2018-02-22, 07:15:39
Es bleibt einfach unüblich für den klassischen Embedded Bereich, nichts weiter wollte ich ausdrücken.

mboeller
2018-02-22, 07:20:21
Wie gesagt: Wunder. Aber du musst nicht überall schwarz malen ;)
[LIST=1]
16 Gbit reicht auch. .......:D

hübsche Liste...

dagegen hört sich ja mein Vorschlag mit den 192bit Speicherinterface richtig einfach und billig an. :) Und wäre schon 2019 locker machbar. Die APUs bleiben natürlich kompatibel mit den alten AM4 Mainboards... sie sind nur nicht wirklich schnell in diesen Mainboards bzgl. GPU

y33H@
2018-02-22, 19:28:45
Vermutlich Ende nächster Woche oder übernächste, muss gucken. Klar bremst Single Channel, aber in dem Fall gilt das für beide Geräte.Läuft :cool:

62684

Unicous
2018-02-22, 21:16:51
Alter Falter :eek:

Smach Z: PC-Handheld nutzt Ryzen V1000 (https://www.golem.de/news/smach-z-pc-handheld-nutzt-ryzen-v1000-1802-132939.html)


(Vorausgesetzt, das Teil wird jemals released:freak:)

dildo4u
2018-02-24, 13:47:46
Specs zum Dell 2 in 1,13 Zoll Notebook nutzt Dual Channel DDR4 2400.


http://topics-cdn.dell.com/pdf/inspiron-13-7375-2-in-1-laptop_setup-guide_en-us.pdf

teetasse
2018-02-24, 16:00:35
Klar bremst Single Channel, aber in dem Fall gilt das für beide Geräte.

Naja, wer Wert auf Spiele-Tauglichkeit legt, wird ein zweites RAM-Modul nachrüsten.

y33H@
2018-02-24, 16:43:26
Geht nicht, verlötet.

Thunder99
2018-02-24, 17:38:38
Das Dell Modell weckt mein Interesse :) Was ist es verfügbar?

MSABK
2018-02-24, 20:53:10
Läuft :cool:



Welches Notebook ist das auf der rechten Seite?

deekey777
2018-02-24, 21:14:34
Welches Notebook ist das auf der rechten Seite?
Ich tippe auf https://www.notebooksbilliger.de/lenovo+720s+13arr+81br000vge/eqsqid/f266b6b3-a285-4826-ad2f-5f0d727dd211


Steht eigentlich paar Postings zuvor.

MadPenguin
2018-02-25, 09:17:48
So. 2400G und 3200 CL14 RAM sins bestellt. Schon lange hat mich keine APU so gereizt, vor allem bezüglich OC Tuning und die damit zusammenhängenden Ergebnisse!
Bei den absurden GPU Preisen ist diese APU einfach genial, um die Zeit zu überbrücken bis die nächste GPU Generation kommt. Laut einigen Artikeln ist bis Q4 sowieso mit keiner Entspannung der Preise zu rechnen...
Edit: Gibt es auch bei den APUs eine Möglichkeit das TDP Limite zu erhöhen?

dildo4u
2018-02-25, 09:46:19
E485 & E585: Lenovo ThinkPad mit AMD Ryzen ab April

https://www.computerbase.de/2018-02/lenovo-thinkpad-e485-e585-amd/

LadyWhirlwind
2018-02-25, 12:01:20
E485 & E585: Lenovo ThinkPad mit AMD Ryzen ab April

https://www.computerbase.de/2018-02/lenovo-thinkpad-e485-e585-amd/

Als alternative zu Intel CPU und dedizierte GPU...
Ich bin gespannt auf einen Vergleichstest.

basix
2018-02-25, 13:26:43
E485 & E585: Lenovo ThinkPad mit AMD Ryzen ab April

https://www.computerbase.de/2018-02/lenovo-thinkpad-e485-e585-amd/

Ich hoffe, bei uns in der Firma stellen sie von Intel Gen 7 ebenfalls auf Raven Ridge um :) Dieses Jahr steht Konzernweit das Update von Windows 7 auf Windows 10 mit Lenovo Geräten mit grösstenteils ThinkPad Basis an, das wäre ein super Deal für AMD.

dildo4u
2018-03-02, 12:56:51
Handheld Smach Z Preorder mit Ryzen V1605B ab 15. März ab 629 US-Dollar


https://www.computerbase.de/2018-02/smach-z-steamboy-ryzen-v1605b/

y33H@
2018-03-02, 13:03:47
... kein Lieferdatum ...

TGKlaus
2018-03-02, 13:10:26
Das Konzept gefällt mir. Aber der Preis ... :confused:

Ich "backe" ja ne ganze Menge über Plattformen ala kickstarter.
Aber hier hätte ich Bauchschmerzen.

dildo4u
2018-03-02, 13:18:36
Der Preis ist eigentlich ok höhere Display Auflösung und deutlich mehr CPU und GPU Power als Switch.Der Preis wäre vermutlich Vergleichbar wenn man ein 2400G System baut und ein 1080p TFT dazu rechnet.

Unicous
2018-03-02, 13:51:35
Das Konzept gefällt mir. Aber der Preis ... :confused:

Ich "backe" ja ne ganze Menge über Plattformen ala kickstarter.
Aber hier hätte ich Bauchschmerzen.

Sollte man auch, aber das Konzept an sich ist schon seeeehr interessant.

Der Preis ist einfach viel zu hoch angesetzt, das Ding sollte ursprünglich bei 300 Dollar liegen und ich glaube sie können froh sein wenn sie ein paar hundert Stück davon verkaufen können, aber sie legen die "Early Bird" Schwelle bei 10K an (bei ursprünglich knapp 1,3K Interessenten).:freak:

500 Dollar ist schon harter Tobak, aber schlussendlich soll das Ding 700 Euro in der günstigsten Variante kosten.

Für 350-400 Dollar hätte es ein nettes und u.U. auch erfolgreiches Nischenprodukt werden können, so wird es mit aller Wahrscheinlichkeit in der Obsurität der Crowdfunding-Welt verschwinden, wenn es denn jemals in die Produktion geht.

Und wenn man sich den Protoypen anschaut, der wohl mit einem 3D-Drucker der ersten Generation erstellt wurde:freak:, frage ich mich auch wie man so potentielle Investoren/Kunden anlocken will.

bbott
2018-03-02, 14:17:08
Handheld Smach Z Preorder mit Ryzen V1605B ab 15. März ab 629 US-Dollar


https://www.computerbase.de/2018-02/smach-z-steamboy-ryzen-v1605b/

Dafür bekommt man fast eine Switch + PS4 (Pro) (bei Angebotspreis), oder aber einen passablen/guten PC oder ein Notebook mit AMD Ryzen 5 2500U.

Der potenzielle Kundenkreis dürft sehr klein sein.

Heimatsuchender
2018-03-02, 18:50:48
Das Konzept gefällt mir. Aber der Preis ... :confused:

Ich "backe" ja ne ganze Menge über Plattformen ala kickstarter.
Aber hier hätte ich Bauchschmerzen.


Die Bauchschmerzen sind berechtigt. Seit 2014 wird immer wieder die Hardware geändert.

Auch bei PSG Lab (oder wie die heißen). Da bekomme ich alle paar Wochen einen Newsletter. Die schreiben dann auch, was neu oder anders werden soll. Ein Gerät gibt es bis heute nicht.

davidzo
2018-03-03, 17:46:06
Und wenn man sich den Protoypen anschaut, der wohl mit einem 3D-Drucker der ersten Generation erstellt wurde:freak:, frage ich mich auch wie man so potentielle Investoren/Kunden anlocken will.

Naja, man kann auch mit einem normalen 3d Drucker ordentliche prototypen herstellern, wenn man weiß wie. Filler, spachteln, finisch schleifen, lackieren etc. und man kriegt Teile hin die aussehen wie im Spritzguss. Diese Zeit haben die Smach-Z Leute aber anscheinend nicht investiert.
Dass sie nach 3 Jahren Entwicklungszeit ein Hochglanzteil zeigen, aber auf der Messe erzählen sie hätten das lieber in Matt zeigt ja, dass es BWLer sind die nichtmal nen Bleistift halten können. Gib mir ne halbe Stunde, 1000er Schleifpapier und ne Dose Plastidip und ich mach dir deinen matten Prototyp!

Der Preis ist eigentlich ok höhere Display Auflösung und deutlich mehr CPU und GPU Power als Switch.Der Preis wäre vermutlich Vergleichbar wenn man ein 2400G System baut und ein 1080p TFT dazu rechnet.

Wegen der GPU-Krise wirkt das vielleicht so, aber ein 2400G desktop mit 8gbRam + 128erSSD kriegt man für die Hälfte und ist deutlichschneller.
http://www.syswork.at/sw/index.html?open&mid=PCKonfig&basis=PCINDI2-7513
Für 899 kriegt man ein schon vollwertiges notebook mit 2700U und doppelt so großer SSD: https://geizhals.de/acer-swift-3-sf315-41-r4ae-nx-gv7eg-002-a1717585.html

Die ganze multiple PCB Strategie macht das ganze klobig und teuer.
Kühlung und Akku sind bei einem Mobilgerät diewichtigsten Sachen um die man sich kümmern muss. Und da haben die anscheinend noch gar nichts gemacht, wenn man den bescheidenen Heatsink aus dem OEMregal da sieht, der kaum für 15W ausreicht, geschweige denn die cTDP von 25W die man für gaming auf der APU mindestens bräuchte.

Rhomb.io scheint eine Firma zu sein die embedded sachen entwickelt und ihre Kompetenz in multi-CPB stacking hat. Das ist nichts was man für ein consumerprodukt in großen stückzahlen gebrauchen kann.

Onboard RAM, onboard singlechip SSDs etc. würden das ganze deutlich kompakter aber auch günstiger machen. Dafür braucht man aber ganz andere Designfirmen als eine die sich gerademal mit Cortex M3 und Sensorboards auskennt. Alleine die cadence Software Libraries um ddr4 ram oder PCIe anzubinden gehen in vier- bis fünfstellige Bereiche. Deswegen Outsourcen auch Motherboardfertiger sowas an reine Design und Engineeringfirmen, während Smach seine Zeit damit verschwendet da was selbst zu bauen.

Diese Videos sind nicht ganz fair, weil der Typ selber auch null insight in die Industrie hat, aber auch nicht ganz unrealistisch: https://www.youtube.com/watch?v=oMUPx4DL5Vo

Mit etwas insight hätte man dem Projekt schon beim ersten Kickstarter pitch eigentlich nur eine minutiöse Chance gegeben, insofern verstehe ich nicht wieso sich der Typ so aufregt. Das muss einem doch vorher klar sein das 680.000 Dollar nicht ausreichen um ein Gadget in dieser Komplexität von grund auf neu zu entwickeln.
Die Steamboy / Smach Leute hatten drei Möglichkeiten:
1. Zugeben das 680k nicht reichen für die Entwicklung und die Kampagne rückabwickeln.
2. Selber hand anlegen, umsonst arbeiten. Wenn man ein Team aus Profis hat, die bereit sind eine Zeit ohne Gehalt an der Fertigstellung zu arbeiten, können selbst unmögliche Projekte funktionieren, insbesondere bei Software/Spielen gab es da Projekte die positiv überrascht haben.
3. Versuchen weiter Geld aufzutreiben, von Investoren. Dabei versteht es sich von selbst dass man nach außen immer eine gute Miene machen muss. Dabei wird das Geld eben für Investoren Marketing, Fake Prototypen, teure Flüge etc. draufgehen.

Offensichtlich wird das ganze Projekt von ein paar Startup Schaumschlägern betrieben die glauben mit genug Marketing allein könnte man Hardware entwickeln, aber ansonsten nichts selber können. Daher haben die auch erstmal Kohle auf ein völlig serienfremdes Mockup verbraten mit dem sie auf Investormeetings Screencaptures der zukünftigen Spiele abspielen können. Immerhin wussten sie also dass sie irgendwoher mehr Geld brauchten um das Ding wirklich zu entwickeln.

https://imgur.com/QgjF829

Ich bin selbst ne Zeitlang als Engineer in der Startupwelt beschäftigt gewesen und es ist traurig dass es so viele "Entrepreneure" gibt die Gadgets bauen wollen von deren technischen Hintergrund sie keinen Schimmer haben. So kann das nicht funktionieren, aber durch Sendungen "die Höhle des Löwen" wird diese falsche Vorstellung nur noch weiter verbreitet. Man kann nur einen Markt betreten den man auch kennt, indem man der absolute Profi ist. Wenn man es nicht ist muss man es werden. Wenn man glaubt man weiß als Outsider alles besser und muss sich nicht in die Details einarbeiten, dann beschäftigt man sich am Ende mit dem Bau von potemkinschen Dörfern und hält das für "the real thing", genau wie bei dem Prototypen von Smach-Z.


Würde man das Tablet-board aus dem ersten Prototypen Mockup benutzt haben um damit eine Reihe von ergonomischen Studien zu bauen, dann könnte ich das als Entwicklungs- bzw. Designschritt verstehen.
Aber da sich ergonomisch seit 3 Jahren nichts geändert hat bzw. das ganze mittelmäßige Format eher klobiger und schwerer geworden ist, muss man das ganze als reinen Betrugsversuch deuten wie StopDrop&Retro das in seinen Videos auch macht.

Loeschzwerg
2018-03-03, 20:14:40
Danke für deinen Beitrag, war mir so zumindest nicht bekannt. Erklärt genau das was ich mir auch schon irgendwie gedacht habe.

BoMbY
2018-03-04, 14:47:52
Das wäre vermutlich eine bessere Ausgangsbasis für so einen Smach Z:

https://i.imgur.com/DheNadB.jpg

Screemer
2018-03-04, 14:49:56
höhere integrationsdichte muss nicht unbedingt besser/günstiger sein. hier kommen halt auch standardkomponenten zum einsatz:

https://pics.computerbase.de/8/1/8/7/7/1-1080.880951037.jpg

dildo4u
2018-03-05, 18:42:10
Die Dell AMD Laptops haben keine SSD Option kein Plan was das soll bei 1000$ für das Top Modell.

https://www.computerbase.de/2018-03/dell-inspiron-17-5000-5775-amd-ryzen-mobile/

MadPenguin
2018-03-05, 18:48:13
Die Dell AMD Laptops haben keine SSD Option kein Plan was das soll bei 1000$ für das Top Modell.

https://www.computerbase.de/2018-03/dell-inspiron-17-5000-5775-amd-ryzen-mobile/

Bitte nicht als Trollversuch verstehen, aber OEMs behandeln AMD immer noch stiefmütterlich

DarknessFalls
2018-03-05, 19:00:56
...das ist nicht stiefmütterlich, das riecht IMHO ganz schön fishy...

Screemer
2018-03-05, 19:20:08
Ist halt Dell. Same shit different decade.

Linmoum
2018-03-05, 19:49:16
Hat sich doch letztens erst irgendein Dell-Fuzzi geäußert, nach dessen Aussagen überrascht bei denen gar nichts mehr.

tm0975
2018-03-05, 20:22:11
es gibt halt einfach zu wenig mündige käufer...

YfOrU
2018-03-05, 20:36:41
Die Dell AMD Laptops haben keine SSD Option kein Plan was das soll bei 1000$ für das Top Modell.

https://www.computerbase.de/2018-03/dell-inspiron-17-5000-5775-amd-ryzen-mobile/

Eine ganz typische CB News.

Die bis jetzt gelisteten Inspiron 17 mit APU haben im Gegensatz zur günstigsten Intel Variante alle ein FHD IPS Panel statt den letzten Schrott (TN mit 1600*900).

DC DDR4 ist zumindest möglich (da 2x SO-DIMM) und M.2 für eine SSD ist auch vorhanden: http://topics-cdn.dell.com/pdf/inspiron-17-5775-laptop_setup-guide_en-us.pdf

Also gar nicht so schlecht. Keine SSD bei den ersten Modellen zur Einführung ist natürlich blöd, ein Dauerzustand dürfte das aber kaum bleiben. Problematischer für AMD ist eher das Intel aktuell für ausgewählte Produkte den Herstellern hohe Nachlässe gibt. Kann ja kein Zufall sein das sowohl Dells Inspiron 17 als auch Acers Swift 3 (nur die Intel Varianten) momentan derart rabattiert sind. Entsprechendes ist allerdings durchaus erlaubt. Effektiv konkurrieren hier zwei Zulieferer um den Platz (Volumen) im gleichen Endprodukt.

PS: Der eigentliche Grund weshalb die AMD Varianten aktuell keine (Low Cost) SSDs haben dürfte am Interface liegen. Entweder eine HDD oder SSD (via M.2 auf SATA Adapter Platine) am SATA Port. Der M.2 Port unterstützt laut Datenblatt nur NVMe SSDs. Nach meinem Verständnis ist das Maximum mit 2x SATA (HDD und DVD) + NVMe der integrierten FCH erreicht.

Die Intel Variante hat sicherlich billigste M.2 SATA SSDs zusätzlich zur HDD verbaut. Intel: http://topics-cdn.dell.com/pdf/inspiron-17-5770-laptop_setup-guide_en-us.pdf

Pirx
2018-03-06, 07:28:23
Erlaubt? Das müsste sich mal jemand im Detail ansehen, was Intel da wieder treibt.

HP Elitebooks werfen Schatten: http://www.tomshardware.com/news/amd-ryzen-vega-laptops-hp-elitebook,36613.html

SKYNET
2018-03-06, 10:27:55
Eine ganz typische CB News.

Die bis jetzt gelisteten Inspiron 17 mit APU haben im Gegensatz zur günstigsten Intel Variante alle ein FHD IPS Panel statt den letzten Schrott (TN mit 1600*900).

DC DDR4 ist zumindest möglich (da 2x SO-DIMM) und M.2 für eine SSD ist auch vorhanden: http://topics-cdn.dell.com/pdf/inspiron-17-5775-laptop_setup-guide_en-us.pdf

Also gar nicht so schlecht. Keine SSD bei den ersten Modellen zur Einführung ist natürlich blöd, ein Dauerzustand dürfte das aber kaum bleiben. Problematischer für AMD ist eher das Intel aktuell für ausgewählte Produkte den Herstellern hohe Nachlässe gibt. Kann ja kein Zufall sein das sowohl Dells Inspiron 17 als auch Acers Swift 3 (nur die Intel Varianten) momentan derart rabattiert sind. Entsprechendes ist allerdings durchaus erlaubt. Effektiv konkurrieren hier zwei Zulieferer um den Platz (Volumen) im gleichen Endprodukt.

PS: Der eigentliche Grund weshalb die AMD Varianten aktuell keine (Low Cost) SSDs haben dürfte am Interface liegen. Entweder eine HDD oder SSD (via M.2 auf SATA Adapter Platine) am SATA Port. Der M.2 Port unterstützt laut Datenblatt nur NVMe SSDs. Nach meinem Verständnis ist das Maximum mit 2x SATA (HDD und DVD) + NVMe der integrierten FCH erreicht.

Die Intel Variante hat sicherlich billigste M.2 SATA SSDs zusätzlich zur HDD verbaut. Intel: http://topics-cdn.dell.com/pdf/inspiron-17-5770-laptop_setup-guide_en-us.pdf


eigentlich verbauen dell und HP nur samsung SSDs... somit eher weniger mit "lowcost"... beispiel: 3th core generation notebooks von dell & hp hatten gelabelte samsung 840er drinne... :)

YfOrU
2018-03-06, 10:35:23
Nein. Beispiel Dell Inspiron 17 5770 (die aktuelle Intel Konfiguration mit SSD+HDD):
https://www.notebookcheck.net/Dell-Inspiron-17-5770-0357-8250U-SSD-HDD-FHD-Laptop-Review.285058.0.html
SK hynix SC311 M.2, 128 GB
-> SATA III und absolut Low Cost.

Our configuration utilizes a primary SK Hynix 128 GB M.2 SSD and a secondary Seagate 1 TB HDD. This particular SSD is limited to SATA III speeds unlike the NVMe SSDs on higher-end configurations of the Dell. Transfer rates from the SK Hynix drive are below average for a SATA III HDD as sequential write rates are about half of what some competing SATA III SSDs have to offer.


Selbst die XPS Reihe hat meistens eine Toshiba NVMe SSD. Samsung gibt es bei Dell inzwischen eher selten. Von billigst SATA auf die bei Dell heute übliche Toshiba NVMe SSD macht beim Preis ungefähr Faktor 2 und das ist für dieses Segment als Ergänzung zur HDD (Startlaufwerk) noch zu teuer. Braucht also Low Cost NVMe SSDs.

SKYNET
2018-03-06, 10:57:00
Nein. Beispiel Dell Inspiron 17 5770 (die aktuelle Intel Konfiguration mit SSD+HDD):
https://www.notebookcheck.net/Dell-Inspiron-17-5770-0357-8250U-SSD-HDD-FHD-Laptop-Review.285058.0.html
SK hynix SC311 M.2, 128 GB
-> SATA III und absolut Low Cost.




Selbst die XPS Reihe hat meistens eine Toshiba NVMe SSD. Samsung gibt es bei Dell inzwischen eher selten.

tjo, dann bleiben wir lieber bei HP, gell? :D

mein altes studio XPS hatte auch noch ne samsung drinne... bei nem anschaffungspreis von weit über 2000€(max konfiguaration mit sli, P9600 & 256GB SSD und allen drahtlosen verbindungsmöglichkeiten dies damals gab inkl. 3G) aber auch zu erwarten :freak:

y33H@
2018-03-06, 11:45:56
Der 720S-Test kommt am Donnerstag, auch Notebookcheck hat das 720S-ARR momentan im Lab.

Loeschzwerg
2018-03-06, 11:54:42
Super, freue mich schon drauf :)

Pirx
2018-03-15, 12:53:58
a bisserl zur Leistung des SMACH Z https://www.hardwareluxx.de/index.php/news/consumer-electronics/konsolen/45929-handheld-mit-ryzen-embedded-smach-z-zeigt-erste-benchmarks.html



(https://videocardz.com/75319/smach-z-with-vega-8-offers-impressive-720p-peformance)

y33H@
2018-03-15, 13:13:05
Sie zeigen es halt nicht mal auf dem Gerät, sondern nur Screen Capture ;(

robbitop
2018-03-15, 14:49:09
In 7 nm geht ähnliche Performance vermutlich mit ~5W. Damit dann auch im Formfaktor der GPDs nutzbar.

SKYNET
2018-03-17, 11:38:11
wie wäre es mal mit ner wilden spekulation zu den nachfolgern der ryzen 3 & 5 APU... 3er mit 2GB HBM und 5er mit 4GB HBM onboard... meinungen?

robbitop
2018-03-17, 12:18:45
IMO zu teuer. Ggf. Gibt es ja mal eine premium apu mit höherem Preis aber auch höherer Leistung. Wenn der Markt dafür groß genug sein sollte...
Alternativ kann man das ja auch analog Kabylake G realisieren.

SKYNET
2018-03-17, 13:14:41
IMO zu teuer. Ggf. Gibt es ja mal eine premium apu mit höherem Preis aber auch höherer Leistung. Wenn der Markt dafür groß genug sein sollte...
Alternativ kann man das ja auch analog Kabylake G realisieren.

nun, denke für erstausrüster könnte da gut nachfrage bestehen, wenn sie sich dafür ne graka sparen, weil mit HBM würde ja auch nen 2400G locker auf level einer RX570 spielen... die APUs verhungern einfach mangels bandbreite, ist wie mit den dGPUs im notebook, GPU könnte einiges, wird dann aber mit nem 64bit interface abgestraft(so wie meine 7570m im 8570p und das max. OC limit machts nicht besser, bei 1040(4160)MHz ist der regler ganz rechts, und da wäre noch locker luft nach oben, speicher ist sogar auf 1.25(5)GHz spezifiziert)...

pilzsammler2002
2018-03-20, 14:00:32
Naja 570 ist utopisch... Eher richtung 460-560 mit glück :freak:

spotz
2018-03-20, 14:52:05
nun, denke für erstausrüster könnte da gut nachfrage bestehen, wenn sie sich dafür ne graka sparen, ...
AMD wird da wohl erstmal abwarten welche Erfahrungen mit KBL-G im Markt gemacht werden, bevor bzw wie und ob man überhaupt eine eigene derartige Lösung anbietet.

Theoretisch wäre eine APU mit der Leistung einer 150 € Grafikkarte für Erstausrüster interessant, aber ob das so vom Kunden angenommen wird und wieviel man dabei spart muss man erstmal sehen.

Botcruscher
2018-03-20, 15:22:55
Naja 570 ist utopisch... Eher richtung 460-560 mit glück :freak:

704 Einheiten brauchen aber da schon viel Glück oder Takt. Polaris hat 2304. Der kleiner noch immer 1024.

vinacis_vivids
2018-03-20, 21:09:30
Vega11 1,6-1,7Ghz ~ 2,3Tflops DDR4-3600DC -> 57,6GB/s
RX560 1,3Ghz ~ 2,6Tflops, 112GB/s

Man bräuchte DDR4-3200QC um >100GB/s zu erreichen.

pilzsammler2002
2018-03-20, 21:26:46
704 Einheiten brauchen aber da schon viel Glück oder Takt. Polaris hat 2304. Der kleiner noch immer 1024.

Jup das Glück sollte hier Utopie darstellen. Wenn der RAM nicht wäre würde man knapp über Ner 550 landen... Von der Größe her. Etwas mehr da Vega etwas besser als Polaris ist. :)

BoMbY
2018-03-28, 15:34:03
Also jedenfalls ist der Fenghuang Raven nicht die Atari Box, aber trotz der G-OPN bin ich immer noch nicht sicher wohin er eigentlich gehört, daher mal an dieser Stelle:

https://i.imgur.com/Xfr9G9w.png

Von der Bandbreite her würde das auf jeden Fall für HBM sprechen (ungefähr die Hälfte von Vega64 bei Sandra, wenn ich das richtig sehe).

Pirx
2018-03-28, 16:08:06
Gaming: Destroyer, Desktop: Destroyer, Workstation: Yacht:upara:

http://www.moepc.net/?post=4548


edit: https://www.extremepc.in.th/amd-fenghuang-apu/screencapture-cpu-userbenchmark-compare-amd-eng-sample-2g01srd1p4mf6-30-y-vs-amd-ryzen-5-2500u-m457540vsm378273-2018-03-13-03_29_34/
wohl am besten ignorieren, den Quark

edit:
http://cpu.userbenchmark.com/Compare/AMD-Eng-Sample--2G01SRD1P4MF6-30-Y-vs-AMD-Ryzen-5-2500U/m457540vsm378273

http://gpu.userbenchmark.com/Compare/AMD-RX-Vega-11-Ryzen-iGPU-vs-AMD-15FF-Graphics/m401440vsm457541

vinacis_vivids
2018-03-28, 16:47:31
Lecker :)
https://abload.de/img/d7561520860490aoogt.png

Villeicht gibs ja zwei Modelle:
28CU, 1792SP, 2GB HBM², 200GB/s (salvage)
32CU, 2048SP, 4GB HBM², 230GB/s (full)

basix
2018-03-28, 17:05:15
Auf genau das in 7nm warte ich sehnlichst :D

Brillus
2018-03-28, 17:49:35
Lecker :)
https://abload.de/img/d7561520860490aoogt.png

Villeicht gibs ja zwei Modelle:
28CU, 1792SP, 2GB HBM², 200GB/s (salvage)
32CU, 2048SP, 4GB HBM², 230GB/s (full)

Ich warte auf eine schöne Gaming-Laptop Option, das hört sich interessant an.

deekey777
2018-03-29, 09:26:32
Aber 15FF ist doch der Codename für RR-iGPU...

Pirx
2018-03-29, 09:47:31
Aber 15FF ist doch der Codename für RR-iGPU...
15DD (*an den Tomb Raider-Thread denk*)


edit: btw. hat Mr. Tum Apisak nun ne Twitterseite (https://twitter.com/tum_apisak?lang=de)

deekey777
2018-03-29, 09:48:35
15DD (*an den Tomb Raider-Thread denk*)
Hat schon seinen Grund. :whistle:

deekey777
2018-04-29, 09:26:51
Weitere Us sollen kommen: https://videocardz.com/76064/amd-lists-ryzen-2100-2300x-2500x-and-2800u-ready-for-mass-market

Keine Spur von Hs.

deekey777
2018-05-30, 22:40:12
Ich kaufe ein H: http://www.computerbase.de/2018-05/amd-ryzen-7-2800h-raven-ridge/

SKYNET
2018-05-31, 00:20:28
Ich kaufe ein H: http://www.computerbase.de/2018-05/amd-ryzen-7-2800h-raven-ridge/

zu spät :P

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11708479#post11708479

SKYNET
2018-05-31, 00:24:00
wie wäre es mal mit ner wilden spekulation zu den nachfolgern der ryzen 3 & 5 APU... 3er mit 2GB HBM und 5er mit 4GB HBM onboard... meinungen?

IMO zu teuer. Ggf. Gibt es ja mal eine premium apu mit höherem Preis aber auch höherer Leistung. Wenn der Markt dafür groß genug sein sollte...
Alternativ kann man das ja auch analog Kabylake G realisieren.

Lecker :)
https://abload.de/img/d7561520860490aoogt.png

Villeicht gibs ja zwei Modelle:
28CU, 1792SP, 2GB HBM², 200GB/s (salvage)
32CU, 2048SP, 4GB HBM², 230GB/s (full)

:tongue: :wink:

robbitop
2018-05-31, 08:37:47
Ist IIRC aber keine APU sondern Vega12+RR+HBM auf einem MCM. Zumindest hat AMD etwas, was dazu passt iirc in der Form dieses Jahr angekündigt. Also analog KBL-G, wie von mir geschrieben.
Btw selbst wenn es eine gewesen wäre, ist sowas schlechter Stil.

SKYNET
2018-05-31, 09:09:03
Ist IIRC aber keine APU sondern Vega12+RR+HBM auf einem MCM. Zumindest hat AMD etwas, was dazu passt iirc in der Form dieses Jahr angekündigt. Also analog KBL-G, wie von mir geschrieben.
Btw selbst wenn es eine gewesen wäre, ist sowas schlechter Stil.

ja, entschuldigung dafür :)

und das sehen wir wenn das ding kommt was es genau ist... ich denke wird ein package sein(abgesehen vom HBM).

deekey777
2018-05-31, 09:14:23
zu spät :P

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11708479#post11708479
Spekuationsforum und so. :P

Und was den Hybriden angeht:
Warum sollte AMD eigentlich RR-Kerne verwenden? Da wären doch (teildeaktivierte) PR passender.

YfOrU
2018-05-31, 10:04:34
Mit PR+dGPU kannst die Akkulaufzeit vergessen. Auch KBL-G hat eine aktive IGP. Hinzu kommt das Raven Ridge explizit für Mobile entwickelt wurde. PR (SoC) dürfte sich kaum auf ein ähnliches Niveau drücken lassen.

Vor allen im Leerlauf muss die Leistungsaufnahme soweit runter wie nur irgendwie möglich denn das geht konstant vom Akku weg. Das ist auch die einzig größere Schwachstelle von Raven Ridge gegenüber KBL-R. Ist nicht viel aber am Ende summiert es sich. Gleichzeitig kostet es Performance denn der Spielraum (TDP Budget für Turbo abseits von Burst) ist in mobilen Geräten eine harte Wand.

dildo4u
2018-05-31, 10:11:58
2600H kommt auch schätze mal hier mit max TDP.

https://videocardz.com/76318/amd-to-enter-high-performance-mobile-market-with-ryzen-7-2800h-and-ryzen-5-2600h

Wird Zeit krass wie verbreitet der 7700HQ ist.

https://benchmarks.ul.com/compare/best-cpus?amount=0&sortBy=POPULARITY&reverseOrder=true&types=MOBILE,DESKTOP&minRating=0

Loeschzwerg
2018-05-31, 11:13:28
Mir würden vernünftige Notebooks mit einer U CPU schon ausreichen, aber da kommt ja nix. Bin gespannt wie AMD hier entsprechend die H Modelle unterbringen will.
Vielleicht sehen wir aber endlich mal SFF PCs, da würden die H Modelle prima passen.

Edit: Wenn man sich 3DMark Werte so ansieht, dürfte der 2600H wieder die vernünftigere Wahl sein.

SKYNET
2018-05-31, 13:58:08
viel schlimmer finde ich das die leute eher den 2200G kaufen anstelle den 2400G... sorry bei dem geringen aufpreis hole ich mir sicher nicht nur 4C/4T sondern 4C/8T und sogleich die bessere grafik. :)

und klar sind die H modelle immer die bessere wahl, idle verbrauchen die ja kaum mehr, und wenn du im energiesparplan bei max. CPU leistung 99% einstellst, boostet der auch nicht.

robbitop
2018-05-31, 14:38:17
Ich tippe darauf, dass es mit der Auswahl der Notebooks erst mit der Zeit besser wird. AMD ist ja erst seit kurzem mit RR wirklich (für viele überraschend?) wirklich wieder wettbewerbsfähig im mobile Markt. Geräte werden sicherlich ein wenig langfristiger entwickelt. Das gilt auch für das Vertrauen in das Risiko einer Geräteentwicklung. Steigt der Bedarf und die Nachfrage nach AMD CPUs im mobile Bereich werden die Hersteller sicherlich mittelfristig nachziehen. Dafür muss AMD aber eine Weile dranbleiben und sich ein entsprechendes Image erarbeiten. Ist halt mühsam.

Loeschzwerg
2018-05-31, 14:56:11
viel schlimmer finde ich das die leute eher den 2200G kaufen anstelle den 2400G... sorry bei dem geringen aufpreis hole ich mir sicher nicht nur 4C/4T sondern 4C/8T und sogleich die bessere grafik. :)


Den meisten Leuten dürfte aber auch der 2200G reichen. Fortnite, PUBG, Overwatch... die üblichen Vertreter rennen wunderbar auf dem kleineren RR.

Ist aber auch egal, solange die CPUs unters Volk kommen :)

Ein NUC Gegner wäre langsam mal an der Zeit. Dachte da wollte Zotac längst was bringen?

SKYNET
2018-05-31, 16:08:15
Ein NUC Gegner wäre langsam mal an der Zeit. Dachte da wollte Zotac längst was bringen?

ja, das wäre mal was... meintewegen auch mit MXM modul(würde ich eh bevorzugen). :cool:

amdfanuwe
2018-06-01, 12:21:58
Zwar kein NUC aber ansonsten sehr interessant und vielseitiger:
The first Maker PC with the AMD Ryzen™ Embedded V1000
https://www.kickstarter.com/projects/udoo/udoo-bolt-raising-the-maker-world-to-the-next-leve

Pirx
2018-06-01, 13:01:15
Ob das Teil irgendwann mal hier (zu humanen Preisen) kaufbar sein wird? edit: ahja, irgendwann 2019 vielleicht

SKYNET
2018-06-01, 13:57:10
wenns wenigstens der V1807B wäre... aber das ding ist ja nix anderes wie nen 2200G mit 8T :(

Botcruscher
2018-06-01, 13:57:34
viel schlimmer finde ich das die leute eher den 2200G kaufen anstelle den 2400G... sorry bei dem geringen aufpreis hole ich mir sicher nicht nur 4C/4T sondern 4C/8T und sogleich die bessere grafik. :)
Weil er im Vergleich extrem überteuert ist. 87€, 133€, 143€. Scheiß auf die Grafik für 50% Aufpreis, wenn es dafür 6C12T am absoluten Spot gibt. Mobil mag es ja zum Teil anders aussehen.

SKYNET
2018-06-01, 14:13:56
Weil er im Vergleich extrem überteuert ist. 87€, 133€, 143€. Scheiß auf die Grafik für 50% Aufpreis, wenn es dafür 6C12T am absoluten Spot gibt. Mobil mag es ja zum Teil anders aussehen.

ehm, wenn wer aber die iGPU nutzen will, bringt ihm der 1600X garnix, thema brotdosen PC...

Botcruscher
2018-06-01, 14:28:06
Wer die IGP nutzen will oder muss ist entweder extrem preissensitiv, uninformiert oder hat irgend eine Spezialanwendung. Letztere sind gegenüber den OEM-Kistenkäufern die absolute Minderheit.

SKYNET
2018-06-01, 14:40:04
Wer die IGP nutzen will oder muss ist entweder extrem preissensitiv, uninformiert oder hat irgend eine Spezialanwendung. Letztere sind gegenüber den OEM-Kistenkäufern die absolute Minderheit.

es gibt gehäuse, da geht keine dGPU rein... darum sagte ich "brotdosen PC"...

Botcruscher
2018-06-01, 18:18:05
Die da wären? Ich bekomm bei AMD doch noch nicht mal aktuelle ITX mit fester CPU. Was anderes als ITX ist bei geizhals nicht mal gelistet. Schlechtes ITX Gehäuse ist ja mal kein Argument.

Pirx
2018-06-01, 19:22:53
Die RR-IGP reicht für sehr vieles aus, warum unnötig Geld sinnlos verpulvern? Dank AM4 hat man im Zweifelsfall auch viele Umrüstoptionen.

SKYNET
2018-06-01, 21:50:01
Die da wären? Ich bekomm bei AMD doch noch nicht mal aktuelle ITX mit fester CPU. Was anderes als ITX ist bei geizhals nicht mal gelistet. Schlechtes ITX Gehäuse ist ja mal kein Argument.

schlecht?
https://geizhals.eu/wesena-f1c-evo-schwarz-ws-f1cb-evo-a1228392.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk

reaperrr
2018-06-01, 23:41:00
Weil er im Vergleich extrem überteuert ist. 87€, 133€, 143€. Scheiß auf die Grafik für 50% Aufpreis, wenn es dafür 6C12T am absoluten Spot gibt. Mobil mag es ja zum Teil anders aussehen.
Bei mindfactory.de verkauft sich der 2400G bisher etwas besser als der 2200G, und beide verkaufen sich relativ gut.

Du hast insofern Recht, dass sich (fast) kein Mensch den 2400G als Spiele-CPU mit dedizierter Graka kaufen wird, aber die Zahl der "preissensitiven" Käufer, die dann tatsächlich mit der IGP zocken, ist halt hoch.

@SKYNET
Zum Thema 2200G vs. 2400G: fast 50% Aufpreis für <10% mehr CPU-Leistung in >90% aller Spiele, und wegen Bandbreitenlimit in spielbaren Einstellungen auch oft <10% mehr IGP-Performance? Eher verwunderlich, dass sich der 2400G so gut verkauft.
AMD wird dessen Preis nicht grundlos inoffiziell von 169 auf 149$ gesenkt haben, vorher lag der 2200G nämlich bei mindfactory-Verkäufen und geizhals-Suchanfragen noch vorn, das hat sich erst mit der Preissenkung des 2400G im April geändert.

Pirx
2018-06-04, 15:15:03
ist das hier noch gar nicht diskutiert worden (Fenghuang Raven)

http://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/AMD-Fenghuang-Raven-3DMark-Ergebnisse-aufgetaucht-1257596/

deekey777
2018-06-04, 15:49:57
ist das hier noch gar nicht diskutiert worden (Fenghuang Raven)

http://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/AMD-Fenghuang-Raven-3DMark-Ergebnisse-aufgetaucht-1257596/

Der Grafiktakt der Fenghuang-Raven-APU lag in den Screenshot bei nur 300 Megahertz, der Speicher taktete mit immerhin stolzen 1.200 MHz. Die niedrige GPU-Taktrate deutet auf ein Engineering-Sample, einen Auslesefehler (am wahrscheinlichsten) oder ein Produkt, welches für stromsparende, möglicherweise eingebettete, Systeme verwendet werden soll, hin.

Oder die GPU war einfach schon im 2D-Sparmodus.

SKYNET
2018-06-04, 20:53:30
Oder die GPU war einfach schon im 2D-Sparmodus.

genau das ist es... beim benchen steht bei mir auch 300MHz im laptop X-D dabei rennt die auf 640(400 original). :smile:

SKYNET
2018-06-08, 14:01:22
die vega im 2200/2400G scheint noch nicht am ende ihrer leistung zu sein, bis zu 20% mehrleistung in gewissen titeln(andere dafür ein wenig schlechter):
https://www.computerbase.de/2018-06/amd-raven-ridge-adrenalin-treiber/

deekey777
2018-06-15, 09:32:36
Er ist wieder da: https://www.golem.de/news/smach-z-ausprobiert-neuer-blick-auf-das-handheld-fuer-pc-spieler-1806-134972.html

Lowkey
2018-06-15, 10:11:56
Skepsis!

Ob es jemals kommt?

Wo bleibt mein 2400GE?

Loeschzwerg
2018-06-16, 10:49:00
https://www.computerbase.de/2018-06/amd-raven-ridge-radeon-grafiktreiber/

Hm... kein Beinbruch, aber wundern tut es mich schon ein wenig.

Kriton
2018-06-16, 14:55:39
Da geht es aber nur um WHQL, oder?

Loeschzwerg
2018-06-16, 16:22:27
Jup.
AMD erklärte, dass die integrierten Radeon-Grafiklösungen nur alle drei Monate mit dem WHQL-Release berücksichtigt werden.


Finde ich jetzt nicht weiter schlimm, auf Optimierungen/Bugfixes für Spiele wird man halt entsprechend länger warten müssen. Mich wundert es allerdings dass AMD die Unterstützung dann immer wieder aus den "Beta" Veröffentlichungen entfernt, die könnte man doch einfach drin lassen und die Entscheidung den Nutzern überlassen.

Kriton
2018-06-16, 20:35:55
Ich sollte einfach mal die Quelle lesen bevor ich schreibe. Dachte, dass es nur um den offiziellen Support ginge, nicht dass es da tatsächlich ein "Problem" gibt.

Lowkey
2018-06-16, 21:12:44
Eigentlich müssen sie doch nur einen Eintrag ändern und schon würde die APU mitlaufen. Bei den Treibern geht es nur um AAA+ Support. 10% Mehrleistung bei der APU ist vernachlässigbar. Wenn ein Titel auf der APU direkt nicht läuft, dann kann AMD relativ schnell einen Betatreiber nachschieben. Alles halb so wild, auch wenn die bis zu 13% mit dem letzten Treiber nach gut 3 Monaten recht viel war.

Zockerfrettchen
2018-06-22, 10:35:05
Ich weiß nicht ob ich hier richtig bin, aber gibt es schon Neuigkeiten bezüglich des RR-Nachfolgers? Wann kommt dieser auf den Markt? Wenn ich die Releasetermine anschaue müsste ja Ende des Jahres ein Refresh anstehen. Aber wie wird dieser aussehen? RR ist stand meines Wissens ja schon sehr nach an Zen+ wenn nicht sogar Zen+ Design. Für Zen 2 Kerne dürfte es wohl zu früh sein, denke daher dass Zen+ gesetzt ist. Was für mich viel interessanter ist: Wird Picasso 12nm oder direkt 7nm? Übernimmt TSMC die Fertigung? Bleibt AMD lieber bei 12nm Globalfoundries, um die OEM besser beliefern zu können? Derzeit liegen ja Lieferschwierigkeiten vor, sodass RR z.B. im Mobilbereich ein Schattendasein fristet. Für mich ist Picasso vielleicht noch interessanter als der Serverberreich, da hier so wenig über die Strategie von AMD bekannt ist, zumindest aus meiner Sicht ;-)

Man sieht ja bei den Servern, wie lange es dauert, bis EPYC Marktanteile gewinnt. Dieser kommt jetzt erst ins Rollen und sollte nächstes Jahr durch Rome zu massiven Marktanteilsgewinnen führen. Im mobilen Sektor und auch OEM-Desktop sollte dies jedoch schneller gehen. Die OEMs hätten bis zum Start von Picasso 1 Jahr Zeit, sich an die Platform zu gewöhnen. Da Intel 2019 ja weiterhin bei 14nm bleibt, würde ich mir Picasso in 7nm mit 6 Zen+ Kernen + Vega 14(?) Grafik wünschen. Das Ding würde Intel in allen Belangen den Rang ablaufen.... Für 12nm sprechen natürlich die Kapazitäten, der Reifegrad der Fertigung. Wäre sicherlich einfacher und billiger. Aber die Chancen, welche sich mit dem Sprung auf 7nm bieten würden, sind nicht zu verachten. Was denkt Ihr?

Grüße,
Zockerfrettchen

Lowkey
2018-06-22, 10:49:56
AMD wird vermutlich einfach in 12nm eine 1.1 Revison machen und die Hardware mehr als Limit treiben. Der Treibersupport deutet darauf hin, dass die APU keine hohe Priorität mehr hat.

Der Anandtech Test zeigt doch, dass ein OC der CPU mit mehr als 3,6Ghz kaum eine Auswirkung hat. Also ist da nicht viel Spielraum für eine notwendige CPU Leistung, die CPUs ohne Grafik leisten müssen.
Ebenso gibt es keine Notwendigkeit für eine APU mehr als 4 Kerne zu besitzen. Die CPU limitiert nicht und mit dem schnelleren DDR4 läuft die CPU auch etwas schneller.
Was AMD braucht ist eine schnellere Grafikeinheit ohne sich Konkurrenz im unteren Grafikkarten Sektor zu machen.
Und schaut man sich die alten APUs an, dann kamen mit Verspätung immer ein paar Detailverbesserungen, aber kein dickes Leistungsplus. Gezündet wie RR haben sie nicht.

Meine Vorstellung des nächsten 2200G/2400G: Precision Boost 2 mit 12nm +200mhz, 50Mhz mehr GPU Takt => 5-10% im Schnitt, wobei deutlich mehr im CPU+dGPU Bereich.

Daher warte ich gespannt auf die GE Versionen mit reduziertem CPU Takt.

Wenn aber nun die Grafikkartenpreise purzeln (schwanken aktuell), dann sinkt die Notwendigkeit für eine APU.

SKYNET
2018-06-22, 11:29:36
AMD wird vermutlich einfach in 12nm eine 1.1 Revison machen und die Hardware mehr als Limit treiben. Der Treibersupport deutet darauf hin, dass die APU keine hohe Priorität mehr hat.

Der Anandtech Test zeigt doch, dass ein OC der CPU mit mehr als 3,6Ghz kaum eine Auswirkung hat. Also ist da nicht viel Spielraum für eine notwendige CPU Leistung, die CPUs ohne Grafik leisten müssen.
Ebenso gibt es keine Notwendigkeit für eine APU mehr als 4 Kerne zu besitzen. Die CPU limitiert nicht und mit dem schnelleren DDR4 läuft die CPU auch etwas schneller.
Was AMD braucht ist eine schnellere Grafikeinheit ohne sich Konkurrenz im unteren Grafikkarten Sektor zu machen.
Und schaut man sich die alten APUs an, dann kamen mit Verspätung immer ein paar Detailverbesserungen, aber kein dickes Leistungsplus. Gezündet wie RR haben sie nicht.

Meine Vorstellung des nächsten 2200G/2400G: Precision Boost 2 mit 12nm +200mhz, 50Mhz mehr GPU Takt => 5-10% im Schnitt, wobei deutlich mehr im CPU+dGPU Bereich.

Daher warte ich gespannt auf die GE Versionen mit reduziertem CPU Takt.

Wenn aber nun die Grafikkartenpreise purzeln (schwanken aktuell), dann sinkt die Notwendigkeit für eine APU.

naja, sie könnten auch locker 20% mehr takt auf die GPU geben, weil das machen die ja meistens eh schon ohne erhöhung der spannung... :cool:

Opprobrium
2018-06-22, 11:44:22
Wenn aber nun die Grafikkartenpreise purzeln (schwanken aktuell), dann sinkt die Notwendigkeit für eine APU.
Außer für kompakte Rechner, Büromaschinen, Laptops, nicht-Gamer, Stromsparer und und und

aufkrawall
2018-06-22, 12:18:58
Außer für kompakte Rechner, Büromaschinen, Laptops, nicht-Gamer, Stromsparer und und und
Dafür konnte man seit 2011 Sandy Bridge i3s und Nachfolger kaufen.

Opprobrium
2018-06-22, 12:27:39
Dafür konnte man seit 2011 Sandy Bridge i3s und Nachfolger kaufen.

Und die Notwendigkeit für AMD APUs sinkt deswegen warum genau? :confused:

aufkrawall
2018-06-22, 12:30:34
Ein gutes Stück weit natürlich durch eine Sättigung des Marktes. Wer seit 2011 gekauft hat, braucht nicht unbedingt was neues, und die Wachstumszahlen im PC-Bereich sind ja auch ziemlich meh.

Opprobrium
2018-06-22, 12:34:56
Ein gutes Stück weit natürlich durch eine Sättigung des Marktes. Wer seit 2011 gekauft hat, braucht nicht unbedingt was neues, und die Wachstumszahlen im PC-Bereich sind ja auch ziemlich meh.
Ja, unter anderem weil durch fehlende Konkurrenz nicht viel passiert ist seit 2011. Also bis letztes Jahr. Abgesehen von den Compute Vorteilen die so eine APU gegenüber Intels iGPUs hat.

Aber stimmt, Sandy Bridge reicht, Warum hast AMD sich überhaupt die Mühe gemacht? Niemand braucht mehr als 640KB

Lowkey
2018-06-22, 12:46:41
2500k von 2011 auf 4,5GHz mit DDR3-1333/1600 wäre heute zu langsam, die Grafikkarte bei PCI-E 2.0 und ein M.2 wäre nahezu ausgeschlossen weniger wegen dem Steckplatz, sondern wegen des Bootloaders. USB 3.0 oder 3.1 "nativ" ist deutlich schneller und kompatibler. UEFI direkt hat keine nennenswerten Vorteile.

Andererseits kann man bestimmte Sachen damit immer noch machen, nur eben kein Mainstreamhighend. Ich hätte gerne noch so ein System zum rumtesten.

Warum habe ich es verkauft? Weil man manchmal von Generation A auf C gehen kann und kaum einen Aufpreis zahlen muss.

dildo4u
2018-06-22, 13:06:19
Bei Mindfactory haben sich die Modelle mit IGP schon öfter verkauft als die Ryzen 3 Quads ohne IGP.Wie schon öfter gesagt auch die billige XBox One verkauft sich noch immer und die ist nicht wirklich potenter.

https://www.amazon.com/gp/bestsellers/2018/videogames/ref=zg_bsar_pg_2?ie=UTF8&pg=2

Corny
2018-06-22, 13:29:33
Ein klassischer Büro-PC läuft doch mit APU / iGPU effizienter und ist auch billiger zu produzieren. Alleine dafür haben APUs ihre Daseinsberechtigung.

SKYNET
2018-06-22, 14:04:04
2500k von 2011 auf 4,5GHz mit DDR3-1333/1600 wäre heute zu langsam, die Grafikkarte bei PCI-E 2.0 und ein M.2 wäre nahezu ausgeschlossen weniger wegen dem Steckplatz, sondern wegen des Bootloaders. USB 3.0 oder 3.1 "nativ" ist deutlich schneller und kompatibler. UEFI direkt hat keine nennenswerten Vorteile.

Andererseits kann man bestimmte Sachen damit immer noch machen, nur eben kein Mainstreamhighend. Ich hätte gerne noch so ein System zum rumtesten.

Warum habe ich es verkauft? Weil man manchmal von Generation A auf C gehen kann und kaum einen Aufpreis zahlen muss.

frag mich wie sandy damit performen würde:
https://geizhals.eu/g-skill-tridentx-dimm-kit-16gb-f3-2933c12q-16gtxdg-a964652.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk

TheGood
2018-06-22, 21:27:55
JEde APU hat doch eine grundsätzliche DAseinberechtigung weil auch ein grossteil der Spiele läuft, vor allem aber Indie spiele. Mit einer AMD APU wird der Anteil der lauffähigen spiele um ein vielfaches erhöht. Mir reich das zum Beispiel vollkommen aus und ich hab ncoh ne Intel drin die schon 5 jahre aufm buckel hat. So leute wie micht gibt's sicher tausende...
Wenn man die teile endlich mal gut promoted und in Stückzahlen liefern könnte, wäre das aus meiner sicht eine Goldgrube.

SKYNET
2018-06-22, 22:32:46
neues von HP:
http://www8.hp.com/au/en/products/desktops/product-detail.html?oid=21353696#!tab=features

Pirx
2018-07-31, 08:59:27
Gab es eigentlich Anzeichen, daß auch RR auf "12 nm" geshrinkt wird?

deekey777
2018-07-31, 09:33:50
Gab es eigentlich Anzeichen, daß auch RR auf "12 nm" geshrinkt wird?
Nein, eigentlich nie.

Pirx
2018-08-03, 08:45:06
Fenghuang? https://twitter.com/TUM_APISAK/status/1025252247909818368 (:D)

GDDR5? https://community.amd.com/community/gaming/blog/2018/08/03/new-amd-semi-custom-soc-combines-the-power-of-amd-ryzen-cpu-and-amd-vega-gpu-for-gamers-in-china?sf194826771=1 https://venturebeat.com/2018/08/02/amd-supplies-semi-custom-chip-for-chinese-gaming-pc-and-console/

edit: 4C/8T-Ryzen + 24CU-Vega + 8 GB GDDR5 "onto a single chip"???

Jedenfalls hätte ich auch gerne einen PC mit diesem "Chip".;)

SKYNET
2018-08-03, 09:16:25
Fenghuang? https://twitter.com/TUM_APISAK/status/1025252247909818368 (:D)

GDDR5? https://community.amd.com/community/gaming/blog/2018/08/03/new-amd-semi-custom-soc-combines-the-power-of-amd-ryzen-cpu-and-amd-vega-gpu-for-gamers-in-china?sf194826771=1 https://venturebeat.com/2018/08/02/amd-supplies-semi-custom-chip-for-chinese-gaming-pc-and-console/

edit: 4C/8T-Ryzen + 24CU-Vega + 8 GB GDDR5 "onto a single chip"???

Jedenfalls hätte ich auch gerne einen PC mit diesem "Chip".;)

warte doch mal ab was zotac bringt.... könnte mir vorstellen das die was auf den markt werfen :cool:

deekey777
2018-08-03, 09:43:11
warte doch mal ab was zotac bringt.... könnte mir vorstellen das die was auf den markt werfen :cool:
Was soll Zotac bringen?

Fenghuang? https://twitter.com/TUM_APISAK/status/1025252247909818368 (:D)

GDDR5? https://community.amd.com/community/gaming/blog/2018/08/03/new-amd-semi-custom-soc-combines-the-power-of-amd-ryzen-cpu-and-amd-vega-gpu-for-gamers-in-china?sf194826771=1 https://venturebeat.com/2018/08/02/amd-supplies-semi-custom-chip-for-chinese-gaming-pc-and-console/

edit: 4C/8T-Ryzen + 24CU-Vega + 8 GB GDDR5 "onto a single chip"???

Jedenfalls hätte ich auch gerne einen PC mit diesem "Chip".;)

Das mit dem Speicher auf einem Chip (und GPU auch auf einem Chip) kaufe ich nicht ab. Interessant ist auch, dass es ein reiner 4C-Chip sein muss. könnte.

basix
2018-08-03, 09:51:11
edit: 4C/8T-Ryzen + 24CU-Vega + 8 GB GDDR5 "onto a single chip"???

Jedenfalls hätte ich auch gerne einen PC mit diesem "Chip".;)

Wahrscheinlich ist Package gemeint ;) Da es aber ein AMD Mitarbeiter ist: Evtl. doch "single chip" / Die Stacking.

deekey777
2018-08-03, 09:54:52
Wahrscheinlich ist Package gemeint ;) Da es aber ein AMD Mitarbeiter ist: Evtl. doch "single chip" / Die Stacking.
Die Stacking wäre denkbar, aber gilt das nicht eher für RAM? Und 8 GB GDDR5?

Die mobilen SoCs haben schon mindestens 4 GB gestackt, wären dann 8 GB GDDR5 auch nicht möglich?

Loeschzwerg
2018-08-03, 09:56:30
Zotac darf erst mal das bereits angekündigte MA551 mit RR bringen... aber da tut sich irgendwie recht wenig :(

Brillus
2018-08-03, 10:05:50
Sehe ich es Recht das es zwischen P11 und P10 wäre. Für ein Notebook wäre das interessant.

fondness
2018-08-03, 12:09:55
AMD Semi-Custom-Chip: Quad-Core-Ryzen mit 24-CU-Vega und 8 GB GDDR5
https://www.computerbase.de/2018-08/amd-semi-custom-chip-ryzen-vega/

Screemer
2018-08-03, 12:12:11
darum geht's seit 8:45 ;) aber danke für den link zur zusammenfassung von cb.

deekey777
2018-08-03, 12:30:52
AMD Semi-Custom-Chip: Quad-Core-Ryzen mit 24-CU-Vega und 8 GB GDDR5
https://www.computerbase.de/2018-08/amd-semi-custom-chip-ryzen-vega/
Ist das Ding wirklich ein Vega-Abkömmling?

Es kann wieder ein Polaris-Chip sein wie auf dem KBL-G.

basix
2018-08-03, 12:38:56
Die Stacking wäre denkbar, aber gilt das nicht eher für RAM? Und 8 GB GDDR5?

Die mobilen SoCs haben schon mindestens 4 GB gestackt, wären dann 8 GB GDDR5 auch nicht möglich?

Meine Idee wäre schon, die APU = single chip und ein paar DRAMs oben drauf gestacked. Das macht man ja bei Mobile SoCs heute schon. Die DRAMs sind mit "Die-Stacking" gestapelt, der Chip bzw. das Package als "Package-on-Package". Wie gut das bei aktiv gekühlten Chips mit 100W TDP funktioniert ist aber schwer zu sagen.

Our Galaxy S9+ model includes Samsung's own Application Processor Exynos 9810. The Application Processor module is a Package-on-Package (PoP) with Samsung's own 6GB LPDDR4X SDRAM K3UH6H60AM-AGCJ.
http://www.techinsights.com/about-techinsights/overview/blog/samsung-galaxy-s9-teardown/

Beschreibungen zu PoP:
https://de.wikipedia.org/wiki/Package-on-Package
http://www.indium.com/flux-and-epoxy/package-on-package-flux/

Ist das Ding wirklich ein Vega-Abkömmling?

Es kann wieder ein Polaris-Chip sein wie auf dem KBL-G.
Ryzen + Vega hat man aber schon als APU. Hier einfach die GPU ein wenig grösser zu gestalten und das SI gegen GDDR5 auszutauschen ist meiner Meinung nach wesentlich weniger Arbeit. Vor allem wenn man noch IF miteinbeizieht, welche von Polaris nicht unterstützt wird, von Vega allerdings schon.

deekey777
2018-08-03, 13:02:51
Meine Idee wäre schon, die APU = single chip und ein paar DRAMs oben drauf gestacked. Das macht man ja bei Mobile SoCs heute schon. Die DRAMs sind mit "Die-Stacking" gestapelt, der Chip bzw. das Package als "Package-on-Package". Wie gut das bei aktiv gekühlten Chips mit 100W TDP funktioniert ist aber schwer zu sagen.


http://www.techinsights.com/about-techinsights/overview/blog/samsung-galaxy-s9-teardown/

Beschreibungen zu PoP:
https://de.wikipedia.org/wiki/Package-on-Package
http://www.indium.com/flux-and-epoxy/package-on-package-flux/
Argh, das passiert, wenn man null Bock alles zu schreiben, was im Kopf steckt.

Ich meinte (auch), dass bei diesen Taichi-Ding auch die GPU oben gepackt wird und nicht in einem Die wie bei der derzeitigen APUs. Daher "nur RAM".


Ryzen + Vega hat man aber schon als APU. Hier einfach die GPU ein wenig grösser zu gestalten und das SI gegen GDDR5 auszutauschen ist meiner Meinung nach wesentlich weniger Arbeit. Vor allem wenn man noch IF miteinbeizieht, welche von Polaris nicht unterstützt wird, von Vega allerdings schon.

Man kann ja argumentieren, es ist ein Custom-Chip, warum dann nicht 4 Zen-Kerne und 24 CUs in einem Die, geht ja beim RR auch. Auf der anderen Seite wäre so ein Die nicht gerade klein. Aber es ist ein Custom-Chip.

(Wenn es jedoch eine ähnliche Lösung wie KBL-G ist, so ist die GPU nicht unbedingt ein Vega-Abkömmling.)

reaperrr
2018-08-03, 13:03:13
Ist das Ding wirklich ein Vega-Abkömmling?

Es kann wieder ein Polaris-Chip sein wie auf dem KBL-G.
Ziemlich sicher Vega.
Zum einen wurde der Chip bei Leaks oft als "Fenghuang Raven" bezeichnet, was darauf hindeutet dass er auch wirklich auf Basis von RR entwickelt wurde.
Zum anderen wäre Polaris bei 1,3 GHz viel zu durstig für eine APU. Polaris schlürft bei 1,3 GHz locker mindestens 50% mehr als bei ~1,1 GHz (mit jeweils geringstmöglicher Spannung), und allein schon der Kühlung wegen würde man bei einer APU dann eher auf die 200 MHz verzichten.

deekey777
2018-08-03, 13:17:48
Hm, hat jemand auf die Schnelle Werte aus SiSoft parat?

Brillus
2018-08-03, 15:38:35
Ist das Ding wirklich ein Vega-Abkömmling?

Es kann wieder ein Polaris-Chip sein wie auf dem KBL-G.

Auf der offiziellen AMD Homepage steht was von rapid packed math daher wohl Vega.

deekey777
2018-08-04, 08:09:24
Der Speicher ist schon mal weg, er ist auf dem Motherboard.
The high-performance AMD chip combines an AMD Ryzen™ CPU (4 core/8 thread running at 3Ghz) with AMD Radeon™ Vega Graphics (24CUs running at 1.3Ghzs), and 256-bit GDDR5 interface onto a single chip and 8GB of GDDR5 on the motherboard.

mironicus
2018-08-04, 08:23:19
Was bringt der schnellere GDDR5-Speicher wohl bei reinen CPU-Anwendungen? Schnelleres Entpacken bei Zip-Archiven?

Ich habe bemerkt das mein PC mit einer GTX 1070 schon manchmal bei Spielen die heftig Streamen (bis zu 100 GB lange Games) kurzfristig einbricht, gerade bei Spielen wie Final Fantasy 15 oder Forza 7. Haben die Konsolen aufgrund ihres schnelleren Speicher beim Streaming Vorteile gegenüber den PC?

Gipsel
2018-08-04, 08:28:10
Was bringt der schnellere GDDR5-Speicher wohl bei reinen CPU-Anwendungen? Schnelleres Entpacken bei Zip-Archiven?Da die Latenzen vergleichbar sind: Nichts (oder kaum was).
Packer sind typischerweise latenzsensitiv und profitieren eher nicht von der reinen Bandbreite (solange die nicht absolut mickrig ist). In ein paar Corner Cases könnte GDDR5 gegenüber DDR4 was bringen (auch abhängig davon ob der 256bit GDDR5-Controller mehr Pages gleichzeitig offen halten kann als der 128Bit DDR4-Controller in den normalen APUs und solchen Details), aber insbesondere bei einem nur 4 Kerner würde ich mir da nicht zu viel erwarten.

Thunder99
2018-08-04, 09:59:05
Wieso verbaut man GDDR5 wenn Vega ja mit HBM umgehen kann? Kostenvorteile?

dildo4u
2018-08-04, 10:15:53
Ja zur Zeit geht das Gerücht um das auch die nästen Konsolen kein HBM nutzen weil es einfach zu teuer ist.

https://careers.microsoft.com/us/en/job/419789/Sr-Electrical-Engineer-DRAM-Memory-Lead-XBOX

OBrian
2018-08-04, 11:25:38
Wieso verbaut man GDDR5 wenn Vega ja mit HBM umgehen kann? Kostenvorteile?
Wahrscheinlich auch langfristig, man kann den Lieferanten wechseln und die so gegeneinander ausspielen, ein Wechsel ist auch keine große Sache. Mit HBM würde man mehr Aufwand haben (bzgl. Testen und Anpassen), und es gibt weniger Hersteller. Vielleicht kauft man auch den ganzen fertigen Chip im Package von AMD, und käme der HBM dazu, könnte der Konsolenhersteller da noch weniger entscheiden, wäre noch mehr ausgeliefert. Flexibilität, auch wenn man sie dann nicht ausnutzt, hält einem Möglichkeiten offen und verleitet andere nicht dazu, einen auszunehmen.

mczak
2018-08-04, 14:41:05
Da die Latenzen vergleichbar sind: Nichts (oder kaum was).
Packer sind typischerweise latenzsensitiv und profitieren eher nicht von der reinen Bandbreite (solange die nicht absolut mickrig ist). In ein paar Corner Cases könnte GDDR5 gegenüber DDR4 was bringen (auch abhängig davon ob der 256bit GDDR5-Controller mehr Pages gleichzeitig offen halten kann als der 128Bit DDR4-Controller in den normalen APUs und solchen Details), aber insbesondere bei einem nur 4 Kerner würde ich mir da nicht zu viel erwarten.
Ich würde sowieso schwer vermuten die Bandbreite kommt beim CCX gar nicht erst an, weil die IF dazu auf 32Byte/Takt beschränkt bleibt (und der Takt immer noch der Basistakt des Speichers ist, also bei 6Ghz gddr5 1.5Ghz, dementsprechend maximale Bandbreite zum Speicher 48GB/s). Die volle Bandbreite des Speichers würde eh schon durch den L3 limitiert.
Die GPU kriegt dann aber natürlich breitere Anbindung (also z.B. 128Byte/Takt).

deekey777
2018-08-04, 14:44:46
APU: https://forum.beyond3d.com/threads/amd-vega-10-vega-11-vega-12-and-vega-20-rumors-and-discussion.59649/page-271#post-2039068

mboeller
2018-08-04, 15:22:40
APU: https://forum.beyond3d.com/threads/amd-vega-10-vega-11-vega-12-and-vega-20-rumors-and-discussion.59649/page-271#post-2039068

cool! Also wirklich eine APU. Damit hatte ich nicht gerechnet.

Wie groß sind den GDDR5 Speicherchips? Die APU scheint ja nicht soo groß zu sein wenn man sie mit den GDDR5 Chips vergleicht.

Gipsel
2018-08-04, 16:11:54
APU: https://forum.beyond3d.com/threads/amd-vega-10-vega-11-vega-12-and-vega-20-rumors-and-discussion.59649/page-271#post-2039068
Das stand doch schon in den ersten Meldungen dazu und die Pressemeldung spricht doch auch von einem Einzelchip. Oder hat jemand geglaubt, das wären zwei Dies in einem Package (also ähnlich wie die intel-Lösung mit AMD-Grafik)? :confused:

mczak
2018-08-04, 16:27:23
Wie groß sind den GDDR5 Speicherchips? Die APU scheint ja nicht soo groß zu sein wenn man sie mit den GDDR5 Chips vergleicht.
Ich habe keine Ahnung wie gross so ein GDDR5 Chip ist aber die Pixelzählerei ergibt ungefähr doppelte Fläche des APU-Dies gegenüber so einem Chip. Ist allerdings nicht sonderlich genau weil mein Versuch das Bild zu entzerren nur mässig geklappt hat.

Gipsel
2018-08-04, 16:31:59
Wie groß sind den GDDR5 Speicherchips? Die APU scheint ja nicht soo groß zu sein wenn man sie mit den GDDR5 Chips vergleicht.Normalerweise 12 x 14 = 168mm²

Loeschzwerg
2018-08-04, 16:33:43
In etwa die Größe von der Xbox X APU.

vinacis_vivids
2018-08-04, 17:09:24
In etwa die Größe von der Xbox X APU.

Hä? Die hat >300mm^2

Gipsel
2018-08-04, 17:12:41
Hä? Die hat >300mm^2
One X hat 359mm² oder so. Und sowas in dem Bereich (vielleicht etwas kleiner) steht doch für den neuen Chip auch im Raum (~2 x GDDR5-Chip = 2 x 168 = 336mm²).
4 TF vs 6 TF GPU, aber
4C/8T Zen@3GHz statt 8C/8T Jaguar@2,3 GHz
Zwei Drittel der Shaderleistung, aber wohl deutlich mehr als das Doppelte an CPU-Power (ein Zen-Thread ist bei gleichem Takt grob doppelt so schnell wie ein Jaguar-Kern).

mboeller
2018-08-04, 17:25:46
Das stand doch schon in den ersten Meldungen dazu und die Pressemeldung spricht doch auch von einem Einzelchip. Oder hat jemand geglaubt, das wären zwei Dies in einem Package (also ähnlich wie die intel-Lösung mit AMD-Grafik)? :confused:

yep, ich bin von einer Intel-artigen Lösung ausgegangen. :)

deekey777
2018-08-04, 18:24:45
Das ist schon etwas undurchsichtig, vielleicht ist es kein Fenghuang. Oder es ist Fenghuang, aber die ganzen Fenghuang-Werte, die hier im Thread stammen von einem anderen Produkt; ob dieses Produkt kommt, steht in den Sternen. Insbesondere wegen der Ankündigung von Vega Mobile mit 28 CUs.


Ach, scheiß drauf! Ich finde den Custom-SoC sehr interessant.

vinacis_vivids
2018-08-04, 18:31:16
Vega mobile kommt dann mit 4GB HBM² (+HBCC) wegen den niedrigen footprints.

mczak
2018-08-04, 18:37:21
One X hat 359mm² oder so. Und sowas in dem Bereich (vielleicht etwas kleiner) steht doch für den neuen Chip auch im Raum (~2 x GDDR5-Chip = 2 x 168 = 336mm²).
4 TF vs 6 TF GPU, aber
4C/8T Zen@3GHz statt 8C/8T Jaguar@2,3 GHz
Zwei Drittel der Shaderleistung, aber wohl deutlich mehr als das Doppelte an CPU-Power (ein Zen-Thread ist bei gleichem Takt grob doppelt so schnell wie ein Jaguar-Kern).
Naja also etwas gross ist das schon, weil die CPU selbst nur wenig Platz braucht, egal ob sie jetzt mehr als doppelt so schnell ist. So ein CCX ist wenn ich das richtig im Kopf habe nur so um die 40mm^2 (ich gehe mal davon aus dass der hier quasi identisch ist zu demjenigen in Raven Ridge).
Der Chip hat aber vielleicht mehr I/O als der One X SoC (z.B. mehr Displayanschlüsse).
Ich hätte eigentlich erwartet dass mit den Daten der Chip eher so um die 300mm^2 sein würde (kann aber immer noch sein...). Wobei vielleicht hat das Die ja auch noch ein paar abgeschaltete CUs...

(edit: wobei der One X SoC ja sogar ein 384bit SI hat - das kompensiert flächenmässig auf jeden Fall schon mal locker jegliche zusätzliche I/O Funktionen die dieser Chip haben könnte.)

Pirx
2018-08-05, 00:30:25
... aber wohl deutlich mehr als das Doppelte an CPU-Power (ein Zen-Thread ist bei gleichem Takt grob doppelt so schnell wie ein Jaguar-Kern).
und wie sähe es bei acht Threads aus?

vinacis_vivids
2018-08-05, 00:50:55
Kann man so nicht vergleichen. Die neue APU ist eher für 1080p@120fps ausgelegt statt 2160p@30fps. Die GPU Power mit 4Tflops ist etwas zu schwach für 4k aber 4C/8T Zen@3Ghz stark genug, um hohe fps rauszuhauen. Und da in China(Asien) die Auflösungen eh etwas hinterher hängen, ist die APU perfekt für diese Zwecke.

Gipsel
2018-08-05, 02:43:28
und wie sähe es bei acht Threads aus?
Da es hier dann um 8 Zen-Threads vs. 8 Jaguar-Kerne geht: Genauso. ;)
Vermutlich mit Vorteilen für die 8 Zen-Thread in Szenarien mit Last auf nur wenigen Threads (weil mit nur einem Lastthread auf einem Kern geht die pro Takt-Leistung von Zen gegenüber Jaguar natürlich noch höher).

MR2
2018-08-05, 08:35:03
CB Update mit PCB Bildern:
https://www.computerbase.de/2018-08/amd-semi-custom-chip-ryzen-vega/#update1

Pirx
2018-08-05, 09:02:20
nur die nur 8 GB würden bei Nutzung als PC stören

MSABK
2018-08-05, 09:25:27
Mich wundert es irgendwie eher, dass AMD nicht die Grafiklösung von dieser Intel-CPU mit einem Ryzen kombiniert. Gute mobile CPUs hat ja AMD.

basix
2018-08-05, 09:38:57
Mich wundert es irgendwie eher, dass AMD nicht die Grafiklösung von dieser Intel-CPU mit einem Ryzen kombiniert. Gute mobile CPUs hat ja AMD.


Verträge ;)

Gipsel
2018-08-05, 09:44:24
nur die nur 8 GB würden bei Nutzung als PC störenFür den angepeilten kostensensitiven Markt vermutlich noch ausreichend. Und nichts hindert die ja, für ein späteres Modell (man könnte sich natürlich auch ein mITX-Board mit verlötetem Chip wünschen) da 16GB draufzupacken.

Complicated
2018-08-05, 10:00:44
Da es hier dann um 8 Zen-Threads vs. 8 Jaguar-Kerne geht: Genauso. ;)

Na genauso ja nicht, Da Jaguar bei 1 Thread langsamer ist, Zen jedoch ab 5 Threads ja keine volle Leistung mehr für die SMT Threads hat. Nicht nur der Takt zählt hier, sondern auch die SMT-Leistung. Ein SMT-Thread soll ja ca. 40% eines Threads bieten gegenüber der alleinigen Nutzung der CPU-Ressourcen. Es hängt wohl vom Workload und den Opitmierungen ab. Daher wäre es schon interessant mal zu sehen ob SMT gegen 4 volle Jaguar Kerne mehr den Vorsprung des Zen halten kann auf 8 Threads.

y33H@
2018-08-05, 10:08:57
https://img.ithome.com/newsuploadfiles/2018/8/20180804_144142_779.jpg@wm_1,k_aW1nL3F3LnBuZw==,y_20,o_100,x_20,g_7

https://www.ithome.com/html/it/374778.htm

Gipsel
2018-08-05, 10:16:05
CB Update mit PCB Bildern:
https://www.computerbase.de/2018-08/amd-semi-custom-chip-ryzen-vega/#update1
Die acht GDDR5-Speicherchips sind um die APU angeordnet, was für ein klassisches Speicherinterface, ähnlich wie bei Grafikkarten spricht. Wie genau dieses angebunden ist und welche Bandbreite es bereitstellt, ist aber nach wie vor nicht bekannt.In der Pressemeldung steht explizit was von 256Bit GDDR5 und auch die 8 Chips sagen das ziemlich klar (ein 128Bit-Interface mit 8 Chips im Clam-Shell-Mode kann man nicht so anordnen). Nur die Taktfrequenz des Speichers noch ist unbekannt.

===========================

Na genauso ja nicht, Da Jaguar bei 1 Thread langsamer ist, Zen jedoch ab 5 Threads ja keine volle Leistung mehr für die SMT Threads hat.Ich sprach von Threads (wenn alle Last sehen), nicht von Kernen und habe die Nichtvollauslastung oben bereits erwähnt. ;)
Zen ist pro Takt wirklich deutlichst schneller als Jaguar. Zwei Threads auf einem Zen-Kern sind auch deutlich schneller als 2 Jaguar-Kerne (für die meisten Sachen).
Ein SMT-Thread soll ja ca. 40% eines Threads bieten gegenüber der alleinigen Nutzung der CPU-Ressourcen.Wenn sich zwei Threads einen Kern teilen, sollte die Leistung besser >50% eines einzigen Threads auf dem Kern betragen. Sonst lohnt sich SMT ja nicht. ;)

Und ja, es hängt immer vom Workload ab.

Random Blender-Benchmark von Zen (nicht Zen+) vs. Puma (Jaguar-Nachfolger) bei Multicore-Last (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11238213#post11238213). Zen-Kern (mit 2 Threads) ist dort taktnormiert 3,5 mal so schnell wie ein Puma-Kern.

Kann mich auch noch an diverse andere Benchmarks erinnern. Am Ende steht, daß 4C/8T Zen in praktisch allen Lebenslagen bereits auf gleichem Takt merklich schneller ist als ein 8C-Jaguar (der bei der Kommunikation zwischen den beiden 4C-Modulen übrigens eine sehr schlechte Latenz hat, übler als das mit den 2 CCX in den 8C-Ryzens). Rechnet man dann noch 50% Taktvorteil dazu, ist das ein absoluter Durchmarsch.

basix
2018-08-05, 10:42:11
In der Pressemeldung steht explizit was von 256Bit GDDR5 und auch die 8 Chips sagen das ziemlich klar (ein 128Bit-Interface mit 8 Chips im Clam-Shell-Mode kann man nicht so anordnen). Nur die Taktfrequenz des Speichers noch ist unbekannt.

Im Link von y33H@ sind 256 GB/s angegeben. Also 8 GBit/s GDDR5. Dazu die CPU mit 3.0 GHz Takt, was ja der Sweet Spot von Ryzen ist. Mit 1.3GHz ist die GPU ebenfalls auf einem sehr effizienten Arbeitspunkt. Alles in allem gut ausbalanciert, würde ich sagen. Ich würde knapp 100W @ Load schätzen.

Zudem 128GB SSD + 1TB HDD mit Win 10. Sieht nicht schlecht aus.

Der Preis ist mit 4998 Yuan angegeben, was etwa 750$ entspricht. Etwas teuer für meinen Geschmack, aber mal schauen.

Complicated
2018-08-05, 11:07:26
Wenn sich zwei Threads einen Kern teilen, sollte die Leistung besser >50% eines einzigen Threads auf dem Kern betragen. Sonst lohnt sich SMT ja nicht. ;)

Da wir über einen Chip für Spielkonsolen sprechen, würde mich doch mal interessieren wo es da >50% bringt wenn SMT aktiviert wird. Intel hatte bei diesen Workloads ca. 25% im Bestfall. Gelohnt hat es sich dennoch wenn man schaut welche CPUs sich Gamer kaufen.

Gipsel
2018-08-05, 12:07:17
Da wir über einen Chip für Spielkonsolen sprechen, würde mich doch mal interessieren wo es da >50% bringt wenn SMT aktiviert wird. Intel hatte bei diesen Workloads ca. 25% im Bestfall. Gelohnt hat es sich dennoch wenn man schaut welche CPUs sich Gamer kaufen.
Du mißverstehst, wovon ich sprach. Das war im Prinzip ein Hinweis darauf, daß Du Dich da unglücklich ausgedrückt hattest.
Wenn Du zwei Threads auf einem Kern laufen läßt, werden die ja beide langsamer ausgeführt als ein einzelner Thread auf dem Kern. Nur akkumuliert sollte besser mehr bei rumkommen. Wenn also 2 Threads jeweils mit 60% der Geschwindigkeit eines einzelnen Threads auf dem Kern ausgeführt werden, beträgt die akkumulierte Leistung 120% (also 20% Vorteil). Wenn es weniger als 50% sind, ist es ein Verlust.
Ein SMT-Thread bietet also hoffentlich mehr als 50% der Leistung eines einzelnen Threads auf dem Kern. ;)