PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Raven Ridge APU: Zen-Cores, Vega-GPU, DDR4, 65W, 2017


Seiten : 1 [2] 3 4 5 6 7 8 9 10

YfOrU
2017-05-12, 09:05:18
Ja, wenn AMD direkt mit CPUs wie dem Pentium G4560 (aktuell 57€) und den Atom SoCs konkurrieren will dürfte kein Weg an Banded Kestrel vorbeiführen. Raven Ridge ist dafür sicherlich zu groß.

Mit 2C+3CUs und SC DDR4 sollte man eigentlich problemlos unter 100mm² kommen.

Dahinter steht aber wohl ein recht großes Fragezeichen denn die Bezeichnung "SoC Concept" zusammen mit "all details subject to change" verleiht dem einen eher optionalen Charakter.

mboeller
2017-05-12, 09:41:07
also doch 8MB L3?

https://cdn.videocardz.com/1/2017/05/AMD-Data-Center-Presentation-5_VC.jpg

und 12 - 45W APU's für Notebooks, wenn die Präsentation noch stimmt.

deekey777
2017-05-12, 13:03:18
Die Roadmap ist ja etwas älter, gerade "Banded Kastrel", dessen Aufgabe aktuell Stoney Ridge übernimmt, könnte interessant sein, wenn er sich für lüfterlose 2in1-Geräte behaupten kann.

Ja, wenn AMD direkt mit CPUs wie dem Pentium G4560 (aktuell 57€) und den Atom SoCs konkurrieren will dürfte kein Weg an Banded Kestrel vorbeiführen. Raven Ridge ist dafür sicherlich zu groß.

Mit 2C+3CUs und SC DDR4 sollte man eigentlich problemlos unter 100mm² kommen.

Dahinter steht aber wohl ein recht großes Fragezeichen denn die Bezeichnung "SoC Concept" zusammen mit "all details subject to change" verleiht dem einen eher optionalen Charakter.

Wenn DAAMIT den BK auch auf die "consumer"-Welt loslässt, könnte es wirklich eine gute Alternative werden. Ob er auch preislich mit der Apollo-Lake-Plattform konkurrieren kann? Mit Kabylake-Pentiums sollte er mithalten können, vielleicht auch überholen.

Du sprichst aber auch einen wunden Punkt: Was kommt dazwischen? 3 CUs dürften wohl mit HD Graphics 615 (Core M bzw. Y) oder 620 (U) mobiler Intel-Zweikerner nicht mithalten können, werden diese Lücke teildeaktivierte RR-APUs (2C/4T) schließen?

Unicous
2017-05-12, 14:30:56
Bist du dir bei der Leistungseinschätzung sicher? Die 3 CUs von Stoney Ridge sind jetzt schon meist schneller als die 615er Chips und auch zu 620 fehlt nicht viel bzw. limitiert da eher die CPU. Das große Manko ist hier eher Single-Channel. Dadurch verschenkt man unter Umständen viel Leistung.

https://www.notebookcheck.com/AMD-Radeon-R5-Stoney-Ridge.173587.0.html
https://www.notebookcheck.com/Intel-HD-Graphics-615.173369.0.html
https://www.notebookcheck.com/Intel-HD-Graphics-620.172254.0.html


(Ungeachtet der höheren TDP bei Stoney Ridge, der zudem ja auch noch in 28nm gefertigt wird)

deekey777
2017-05-12, 15:40:10
Ehrlich gesagt, nicht so sicher.
Was NB manchmal da zusammenbencht, ist oft undurchsichtig*.
Die CPU ist wirklich eine Unbekannte, aktuell wird die Grafikeinheit der APUs doppelt bestraft (niedrige CPU-Leistung kombiniert mit Drosselung der CPU, um die TDP einzuhalten).

*Was ich meine, ist die Bewertung der R5 M430 (320 SPs mit 64bit-SI) in Kombination mit einer Intel-CPU.

Test Lenovo Yoga 510-14AST (A9-9410, HD) Convertible (https://www.notebookcheck.com/Test-Lenovo-Yoga-510-14AST-A9-9410-HD-Convertible.203484.0.html)

und

Test Lenovo Yoga 510-14IKB Convertible (https://www.notebookcheck.com/Test-Lenovo-Yoga-510-14IKB-Convertible.180808.0.html)

Wie oben angedeutet, ist mit der Radeon R5 M430 kaum mehr Saat zu machen als mit der in die CPU integrierten Intel HD 620 ohne eigenen Speicher. Als Beispiel sei der neue Topseller Farming Simulator 17 genannt, wo die HD 620 bei niedrigen Einstellungen nur um 15 % in Rückstand gerät und sich bei mittleren sogar geringfügig absetzen kann. Ein ähnliches Bild ergibt sich beim Shooter-Oldie Bioshock Infinite von 2013, zu dem wir unzählige Benchmarkergebnisse verschiedenster Karten in der Datenbank haben. In niedrigen Presets muss sich die R5 M430 rund der Hälfte aller getesteten Intel-HD-520-Grafiken geschlagen geben und wird in mittleren von der Mehrzahl der bisher gemessenen HD-620-Grafiken überholt. Nennenswerte Vorsprünge kann sich die Karte im Yoga 510 nur in sehr wenigen Games wie Rainbow Six Siege herausarbeiten.

Vielleicht ziehe ich den falschen Schluss, aber wenn eine R5 M430 in Kombi mit einem i5-7200U sich nicht so richtig von der HD 620 absetzen kann, dann wird für nur 3 CUs noch schwieriger. €dit: Vielleicht ist es auch das Speicherinterface, das die Leistungsentfaltung einbremst.

Auf der anderen Seite ist ein klarer Trend zu sehen: Ist das Spiel etwas kompliziert und die CPU-Leistung eher in den Hintergrund tritt (zumindest wird aktuell die CPU gedrosselt, damit die GPU ihre Muskeln ausspielen kann), so kann auch ein Stoney-Ridge die Intels schlagen oder zumindest dicht auf den Fersen sein. Nur "unspielbar" bleibt "unspielbar".


Recht hast du mit dem Einwand.

Unicous
2017-05-12, 16:09:12
Der Vergleich hinkt aber auch etwas, da M430 GCN 1.0 ist und Stoney mindestens 1.3 nutzt, wenn nicht gar schon Teile von Polaris? Oder waren da nur die Fixed Function Units neuer als bei Carrizo/BR?

Ein potentieller 4T/3CU Chip würde entsprechend höhere IPC auf CPU-Seite haben und deutlich höher takten (1000MHz+... ich würde ja fast schon gen 1200MHz tippen, aber das wird eher nicht in einen 4 Watt envelope passen,:freak: bei den 15 Watt Chips aber umso mehr)

Ein SR-Nachfolger auf Zen/Vega-Basis könnte mMn ordentlich reinhauen... wenn AMD es schafft die Leistungsaufnahme im Zaum zu halten. Aber mit niedrigeren Takten scheint ja der 14nm Prozess deutlich genügsamer zu sein.

deekey777
2017-05-12, 17:07:28
Da habe ich wohl irgendwo beim Lesen eines Tests vertan und dachte, dass die kleinen mobilen Chips gar 1.3 sind.

Die APUs seit Carrizo sind (mindestens) Tonga, deren UVD und VCE sind etwas fortschrittlicher (Fiji?).

Ich finde die nächsten Monate recht spannend. Aktuell haben die mobilen BR-APUs mindestens 6 CUs und das in der 15W-Klasse und sind ~250 mm² groß, während ein SR mit 1 Modul/3 CUs etwa halb so groß ist. Ein in 14 nm gefertigter i5-6200U ist ~99 mm² groß.

Jetzt ändere ich wirklich meine Einschätzung:

Ein Banded Kestrel mit 2C/4T und 3 CUs wäre eine enorme Leistungssteigerung im Vergleich zu Stoney Ridge (1 Modul und 2 Threads) und wäre für Intel eine harte Nuss. Aber es ist ja Intel. INTEL. Allein der Name zählt.

Bei aller Vorfreude darf nicht vergessen werden, dass es sich um Embedded-Produkte handelt. Es sind noch so viele Zahlen- und Buchstabenkombis möglich. (https://www.3dcenter.org/news/namensschema-von-amds-ryzen-prozessoren-offengelegt) X-D

mczak
2017-05-12, 18:52:16
Der Vergleich hinkt aber auch etwas, da M430 GCN 1.0 ist und Stoney mindestens 1.3 nutzt, wenn nicht gar schon Teile von Polaris? Oder waren da nur die Fixed Function Units neuer als bei Carrizo/BR?

Die M430 ist wahrscheinlich GCN 1.2. Sicher weiss das aber kein Mensch, weil das verschiedene Chips sein können. Aber es dürfte sich heutzutage meist um Iceland handeln, nicht Sun. (Zumindest bei den Vorgängern gab's dieselben Chips unter gleichem Namen - und das obwohl es ja für diese Low-End Chips eh schon Dutzende Namen für denselben Chip gibt. Das liebe Marketing läuft da ziemlich Amok.)
(Einen vernünftigen Vergleich der beiden Chips habe ich auch nirgends entdeckt - der Chip wurde ja offiziell auch gar nie vorgestellt. Theoretisch müsste der doch Vorteile haben, weil diese 64bit ddr3 Lösungen hoffnungslos bandbreitenlimitiert sind, aber FBC bringt da offenbar nicht so viel.)

Unicous
2017-05-12, 22:25:16
Nein, die M430 ist wie so gut wie alle unteren Chips und wie auch die letzten Chip-Generationen ein Oland-Rebrand. Und der ist maximal auf Gen2 (also wie z.B. Bonaire) aber sehr wahrscheinlich nur Gen1. Ich habe jedenfalls nichts Gegenteiliges entdeckt.

Es kann schon mal nicht Iceland sein, denn das ist ein Desktop-Chip. :wink:
Wenn dann meinst du eher Topaz... und das ist mit sehr hoher Wahrscheinlichkeit auch ein umbenannter Oland, dessen Mobile Variante Sun hieß.

TPU behauptet im Übrigen auch, dass Topaz/Iceland Gen1 ist. Ob diese Informationen stimmen sei mal dahingestellt.:freak:

AMD hatte seit 2011/2012 im unteren Segment entweder alte VLIWs oder eben Oland, der 2013 gelaunched wurde, das hat sich erst mit Polaris 12 geändert.

deekey777
2017-05-14, 11:03:43
Raven Ridge (http://ranker.sisoftware.net/show_system.php?q=cea598ab9faa9eaa9cbadde0cdfcdaa895a583ead7e6c0a895a086fec3f2d4 b1d4e9d9ff8cb189&l=de).

Bei dem ersten Wert kommt mein A10-9600P (15W) auf ganze ~28 GOPS. ;(
Mehrkerneffizienz ~5 GB/s (Kern-Kern)
Multimedia-Leistung ~ 59,1 Mpixel/s
Kryptografieleistung ~ 1,9 GB/s
GP-Leistung: ~ 505 MPixel/s (Gesamtleistung)

Ravenhearth
2017-05-16, 23:17:23
http://i.imgur.com/iXBofeB.jpg

http://i.imgur.com/pl5lqgJ.jpg

mczak
2017-05-16, 23:40:05
Nein, die M430 ist wie so gut wie alle unteren Chips und wie auch die letzten Chip-Generationen ein Oland-Rebrand. Und der ist maximal auf Gen2 (also wie z.B. Bonaire) aber sehr wahrscheinlich nur Gen1. Ich habe jedenfalls nichts Gegenteiliges entdeckt.
Nein da bist du falsch informiert, der Icelands gcn 1.2 Chip ist sehr real. Ursprünglich gab es Oland (gcn 1.0) - das ist der einzige der 3 gcn low-end Chips der auch für Desktop taugt (die anderen beiden haben keine Display-Ausgänge). Der hat im Vollausbau 128bit Speicher, 6 CUs.
Daneben gibt es Sun (im Treiber Hainan genannt), ebenfalls gcn 1.0, 5 CUs, 64bit.
Irgendwann gab's dann einen neuen Chip, eben Icelands (auch Topaz genannt), der ist gcn 1.2, 64bit, 6 CUs (IIRC). Dass der existiert wissen aber eben viele nicht weil die Produktnamen nicht differenzierbar sind und es demzufolge auch nie eine Ankündigung mit neuen Produkten gab). Aber der Treiber lügt nicht (war auch ziemlich lustig weil der am Anfang vom Open-Source Treiber nicht unterstützt wurde, da gab es also Notebooks mit einer Radeon xyz und der läuft problemlos, andere Notebooks mit der angeblich gleichen Radeon xyz und den kriegt man nicht zum Laufen - was insofern nicht so tragisch war weil es eben eh nur Hybrid-Grafik war):
https://cgit.freedesktop.org/~airlied/linux/tree/drivers/gpu/drm/amd/amdgpu/vi.c?h=drm-next

Die M430 im Speziellen vermute ich benutzt nie Oland - Icelands/Topaz ist wahrscheinlich, Sun/Hainan möglich (wenn AMD die Dinger immer noch an Lager hat...), aber Oland mit seinen 6 CUs, 128bit SI und UVD/VCE/DC dürfte doch deutlich grösser sein, das wäre nicht ökonomisch.
(Woher übrigens die "Doppelnamen" kommen weiss ich auch nicht, denn Mobil/Desktop kann's nicht sein (eben weil die, mit Ausnahme von Oland, sowieso nur mobil brauchbar sind). Es wäre wohl korrekter sich an die Namen im Treiber zu halten, denn der Rest ist nicht verifizierbar. Das wären dann also Oland, Hainan, und Topaz.)

deekey777
2017-05-17, 16:24:50
Endlich Bildchen.

https://www.golem.de/news/raven-ridge-ryzen-mobile-ist-viel-schneller-bei-halber-leistungsaufnahme-1705-127880.html

Unklar ist, welches Modell als Basis herangezogen wird - denkbar wäre eines mit 25 Watt. Die CPU-Geschwindigkeit soll um 50 Prozent steigen und die GPU-Leistung um 40 Prozent. Ungeachtet dessen benötigt Ryzen Mobile laut AMD trotzdem nur die Hälfte an Energie. Neben der neuen Technik ist das auch Samsungs modernem 14LPP- statt TSMCs älterem 28-nm-Verfahren zu verdanken.

Hat jemand Fußnoten zu der Folie?

Ravenhearth
2017-05-17, 16:26:57
Ich denke das mit TSMC ist ein Fehler von Golem. Die großen APUs kommen doch alle von GF.

deekey777
2017-05-17, 16:41:59
Ich denke das mit TSMC ist ein Fehler von Golem. Die großen APUs kommen doch alle von GF.
Darauf habe ich gar nicht geachtet.

Es gibt ja (zumindest laut AMD) entweder 15W-Modelle oder 35W-Modelle. Wie Golem auf 25W kommt, weiß ich nicht.

AMD sagt, dass die CPU-Leistung um 50% steigt. Fußnote jemand? Würde mich nicht wundern, dass ein Ryzen-Dualcore mit SMT in Cinebench 15 50% schneller als zB A12-9800B ist. Selbst schlecht gekühlte i5 kommen auf 320-330 Punkte (Multi), während ein A12-9800B vielleicht über 220 schafft. https://www.notebookcheck.com/Test-HP-EliteBook-725-G4-A12-9800B-Full-HD-Laptop.203474.0.html Nur dürfte die RR-APU deutlich weniger verbrauchen, wenn die Leistung abgerufen wird.

Bei der Annahme, dass ein RR-Dualcore auch 300 Punkte schafft, da hätte man die Leistungssteigerung von 50%, wobei ein RR diese länger hält.

Wie AMD aber die Grafikleistung gemessen hat, null Dunst. 3DMark? Oder war man so schlau und hat einfach FPS in irgendeinem Spiel verglichen?

Tru
2017-05-17, 16:47:30
Zu der Slide gibt es keine Fußnoten.

deekey777
2017-05-17, 17:34:19
Zu der Slide gibt es keine Fußnoten.
Schade.

Man könnte jetzt gemein sein und meinen: Wäre RR schneller als Kabylake, dann hätten sie Kabylake genommen.

y33H@
2017-05-17, 18:21:06
Samsung und keine Fußnoten.

iuno
2017-05-21, 19:35:24
Wundert mich, dass das noch nicht hier war: https://www.youtube.com/watch?v=-P87BBSHAsg
ASUS Teaser zu einem ROG Notebook mit Zen, wird auf der Computex gezeigt

deekey777
2017-05-21, 19:45:50
Wundert mich, dass das noch nicht hier war: https://www.youtube.com/watch?v=-P87BBSHAsg
ASUS Teaser zu einem ROG Notebook mit Zen, wird auf der Computex gezeigt

War im Strategie-Thread.

Die Frage ist, was sich wirklich dahinter verbirgt. ROG-Geräte sind das Nonplusultra unter den Asus' Gaming-Laptops, das spricht eingentlich gegen eine APU (vielleicht sind die so verrückt und verbauen einen Sechskerner und eine dedizierte Grafikkarte in einen Laptop). Es kann aber auch ein Ausblick auf Laptops mit RR-APUs, etwas Vierkerniges mit 11 CUs mit Crossfire X-D.

iuno
2017-05-21, 19:52:51
Jede Intel CPU die in so einem Geraet verbaut wird ist auch eine "APU" ;) Heisst ja nicht, dass keine dGPU dazu kommen kann.

deekey777
2017-05-21, 19:56:15
Jede Intel CPU die in so einem Geraet verbaut wird ist auch eine "APU" ;) Heisst ja nicht, dass keine dGPU dazu kommen kann.

Ich lasse mir alle Optionen offen. ;)

Klar, es kann auch "nur" eine RR-APU a la i5/i7-xxxxHQ sein mit nur wenigen CUs und immer mit SMT, sprich 4C/8T.

PS: Vielleicht stellt AMD während der Computex wirklich einige mobilen Ryzens vor - schließlich machen sie das sehr gern in letzter Zeit, Verfügbarkeit ist nebensächlich.

PPS: Wegen Intel APU wird Streit geben.

deekey777
2017-05-23, 15:57:55
https://videocardz.com/69428/amd-snowy-owl-naples-starship-grey-hawk-river-hawk-great-horned-owl

Folie 74, war sie schon immer da?

Da ist eine FP5-APU mit 4C/8CU und mit 12W-15W TDP dabei. Die Roadmap ist ja nicht aktuell, aber ich habe die Folie erst jetzt bemerkt.

Linmoum
2017-05-31, 04:40:15
https://i.gyazo.com/bb53d52e79f6700b3f0b55a0dcece655.png

Loeschzwerg
2017-05-31, 08:15:38
Das dürfte dann wohl der ~15 Watt Horned Owl sein.

Leonidas
2017-05-31, 08:19:56
Obiges Foto bezieht sich im übrigen auf "Ryzen Mobile" aka Raven Ridge. Auf was für eine Die-Fläche ist das zu schätzen?

deekey777
2017-05-31, 08:56:00
Obiges Foto bezieht sich im übrigen auf "Ryzen Mobile" aka Raven Ridge. Auf was für eine Die-Fläche ist das zu schätzen?
Das dürfte dann wohl der ~15 Watt Horned Owl sein.

Great oder nicht Great, das ist hier die Frage. X-D

Im Ernst: Wenn Great 11 CUs hat, Nicht-Great "nur" 8 CUs, wird AMD zwei verschiedene Dice produzieren lassen oder nur einen Die und deaktiviert dann einzelne CUs?

Intel bringt wirklich einen CL-Vierkerner für die 15W-Klasse, das wird sich AMD doch nicht gefallen lassen! Nur wie viele EUs wird der haben? Weiterhin 24, oder?

Loeschzwerg
2017-05-31, 09:08:27
Ich tippe auf einen DIE, wegen 3 CUs weniger legt man sicher keinen extra Chip auf.

CFL 4C @ 15W => Da gehe ich von GT2 aus. In Sachen 3D Leistung hat AMD hier 100%ig mehr Leistung.

YfOrU
2017-05-31, 09:15:36
Im Ernst: Wenn Great 11 CUs hat, Nicht-Great "nur" 8 CUs, wird AMD zwei verschiedene Dice produzieren lassen oder nur einen Die und deaktiviert dann einzelne CUs?

Sehr sicher nur einen. Die zweite APU ist Banded Kestrel mit vermutlich 2C+3CU. Allerdings erst 2018. Achtung, ES Roadmap (Markteinführung am Ende des Balkens):
https://cdn.videocardz.com/1/2017/05/AMD-Data-Center-Presentation-2_VC-1000x555.jpg
https://cdn.videocardz.com/1/2017/05/AMD-Data-Center-Presentation-8_VC-1000x555.jpg

Wobei ich davon ausgehe das Banded Kestrel vor allen für Embedded und Thin Clients gedacht ist. In dem Bereich läufts für AMD ganz gut, der Markt ist langsamer aber mittelfristig braucht es hier trotzdem Ersatz für die 28nm Designs. Nebenbei nimmt man dann halt noch etwas vom mobilen Essentials Segment mit.


Intel bringt wirklich einen CL-Vierkerner für die 15W-Klasse, das wird sich AMD doch nicht gefallen lassen! Nur wie viele EUs wird der haben? Weiterhin 24, oder?

Der fällt zwar in die 8xxx Reihe, ist aber nicht CFL sondern KBL. Wird also kaum etwas anderes sein als 4C+GT2. Steht schon recht lange auf der Roadmap:
https://www.notebookcheck.net/Intel-Kaby-Lake-Quad-Core-ULV-Processors-in-2017.172188.0.html

Dürfte etwas unübersichtlich werden denn das kommende mobile Portfolio wird sich aus 10nm CNL (2C+GT2), 14nm KBL (4C+GT2) und 14nm CFL (2C - 6C, GT2 - GT3e) zusammen setzen.

deekey777
2017-05-31, 09:36:02
...



Der fällt zwar in die 8xxx Reihe, ist aber nicht CFL sondern KBL. Wird also kaum etwas anderes sein als 4C+GT2. Steht schon recht lange auf der Roadmap:
https://www.notebookcheck.net/Intel-Kaby-Lake-Quad-Core-ULV-Processors-in-2017.172188.0.html

Dürfte etwas unübersichtlich werden denn das kommende mobile Portfolio wird sich aus 10nm CNL (2C+GT2), 14nm KBL (4C+GT2) und 14nm CFL (2C - 6C, GT2 - GT3e) zusammen setzen.

Ich habe gestern diese Meldung nur flüchtig (https://www.heise.de/newsticker/meldung/Ausblick-auf-Intel-Core-i-8000-Vierkern-Prozessor-schafft-4-GHz-bei-15-Watt-TDP-3728635.html) gelesen und fand sie nicht mehr. Jetzt sehe ich, dass es ein KBL-Ableger ist.

Loeschzwerg
2017-05-31, 10:08:33
https://1.f.ix.de/scale/geometry/695/q75/imgs/18/2/2/1/2/0/9/0/IMG_0588-a7bcf5ec93130aef.jpeg
https://www.heise.de/newsticker/meldung/AMD-Benchmarks-von-Ryzen-Threadripper-und-Details-zu-Ryzen-Mobil-CPUs-3729564.html?hg=1&hgi=0&hgf=false

Größenvergleich. Sollte beim errechnen der APU DIE Size etwas helfen.

YfOrU
2017-05-31, 10:29:48
Vermutlich 1 Yuan (Republic of China) - Durchmesser: 20mm. Wer mag messen und rechnen ;)
https://en.numista.com/catalogue/pieces966.html

Loeschzwerg
2017-05-31, 10:51:35
https://3s81si1s5ygj3mzby34dq6qf-wpengine.netdna-ssl.com/wp-content/uploads/2017/05/amd-epyq-package.jpg

So als möglicher, zusätzlicher Anhaltspunkt.

200-220mm²? Also Größenregion eines Summit Ridge. In der APU dürfte ein CCX um 90° gedreht sein, im Vergleich zu SR.

Nakai
2017-05-31, 11:07:14
Aua, für den Grafikteil hab ich mir mehr erwartet.

Leonidas
2017-05-31, 11:14:15
Genauso groß wie Summit Ridge ist schon dick. Schließlich ist es Preisklasse unterhalb von Ryzen 5 auf Level Ryzen 3 und niedriger.

deekey777
2017-05-31, 11:15:40
Hat nicht jemand hier im Thread die Die-Größe der RR-APU mit der Die-Größe des Summit Ridge geschätzt?

Aua, für den Grafikteil hab ich mir mehr erwartet.

Wie meinen?

fondness
2017-05-31, 11:24:58
Hat nicht jemand hier im Thread die Die-Größe der RR-APU mit der Die-Größe des Summit Ridge geschätzt?


Jap ich.

Genauso groß wie Summit Ridge ist schon dick. Schließlich ist es Preisklasse unterhalb von Ryzen 5 auf Level Ryzen 3 und niedriger.

RR ist auch nicht primär für Desktop, sondern für Notebook. Da können schon höhere Preise aufgerufen werden.

Nakai
2017-05-31, 11:51:36
Wie meinen?

Die Taktraten der GPU im Mobile werden wohl ähnlich zu den Taktraten einer GPU der 7th APU Desktop sein. 40% dann draufrechnen, mit 11 vs 8 CUs, sprechen eine eindeutige Sprache, wie Vega aussehen wird.

Relic
2017-05-31, 11:55:23
Genauso groß wie Summit Ridge ist schon dick. Schließlich ist es Preisklasse unterhalb von Ryzen 5 auf Level Ryzen 3 und niedriger.

Was hast du erwartet wenn es vom CPU Teil schon ein halber Summit Ridge ist? 100mm² bleiben dann übrig um auf Summit Ridge Größe zu kommen und das ist ungefähr die Größe, die Polaris 12 hat.

HOT
2017-05-31, 12:12:20
Genauso groß wie Summit Ridge ist schon dick. Schließlich ist es Preisklasse unterhalb von Ryzen 5 auf Level Ryzen 3 und niedriger.

Der ist aber nicht so lang wie SummitRidge. Ich tippe da eher auf 170-180mm² für RR bei annährend gleicher Breite.

Loeschzwerg
2017-05-31, 12:14:14
Sieht aber deutlich breiter aus. Die ~200 sollten da schon passen.

deekey777
2017-05-31, 12:38:46
Genauso groß wie Summit Ridge ist schon dick. Schließlich ist es Preisklasse unterhalb von Ryzen 5 auf Level Ryzen 3 und niedriger.

Ich glaube nicht, dass das wirklich ein Problem ist, denn die OEMs ersparen sich eine dedizierte Grafikkarte und für AMD ist es wichtig in solchen Rechnern verbaut zu werden, sprich mit i5-Fertig-PCs, während BK mit Pentiums und i3 konkuriert.

Die Taktraten der GPU im Mobile werden wohl ähnlich zu den Taktraten einer GPU der 7th APU Desktop sein. 40% dann draufrechnen, mit 11 vs 8 CUs, sprechen eine eindeutige Sprache, wie Vega aussehen wird.

Die Folie bezog sich auf die 15W-Klasse, wenn ich mich nicht irre, dort ist wohl Horned Owl mit 4C/8CUs angesiedelt. Leider hatte die Folie gar keine Fußnoten, so dass nicht klar ist, was AMD mit den Prozenten genau meint bzw. wie AMD auf diese Prozente kommt. Edit: Die Folie kann alles mögliche zeigen.

Vielleicht hat AMD einfach Cinebench und 3DMark drüber gejagt und schon hat man bessere Werte und niedrigeren Verbrauch. Entscheidend ist aber, wie lange die Leistung gehalten werden kann, und hier dürfte AMD größeren Fortschritt gemacht haben.

Irgendwelche Rückschlüsse auf Vega wären nicht nur verfrüht, sondern gefährlich.

mboeller
2017-05-31, 12:43:27
Die Taktraten der GPU im Mobile werden wohl ähnlich zu den Taktraten einer GPU der 7th APU Desktop sein. 40% dann draufrechnen, mit 11 vs 8 CUs, sprechen eine eindeutige Sprache, wie Vega aussehen wird.

ha! NEIN! imho

die wichtigsten Teil hast du IMHO unterschlagen. Der Verbrauch soll sich gleichzeitig halbieren. Bei Vega wird das nicht so sein. Und RX480/580 haben ja gezeigt wie schlecht die Skalierung auf 14nm (zumindest bei AMD GPUs) ist.

iuno
2017-05-31, 12:43:33
Hat nicht jemand hier im Thread die Die-Größe der RR-APU mit der Die-Größe des Summit Ridge geschätzt?
Macht ja auch Sinn mit einem statt 2 CCX, dafuer 8(+) CUs, trotzdem gleich viel Speicher- und etwas weniger sonstigem I/O.

Die Taktraten der GPU im Mobile werden wohl ähnlich zu den Taktraten einer GPU der 7th APU Desktop sein. 40% dann draufrechnen, mit 11 vs 8 CUs, sprechen eine eindeutige Sprache, wie Vega aussehen wird.
Das finde ich gar nicht, da die +50% CPU und +40% GPU Leistung bei -50% Verbrauch gleichzeitig gelten. Ich denke da wird BR in der ~35 Watt Konfiguration verglichen mit einem RR bei ~15 Watt. Das ist auch eine Frage der Balance, die CPU hat so viel mehr Wumms als Excavator, welcher in der zweiten Iteration rein auf mobile ausgelegt war. Und das alles muss man im Power Budget unterbringen, imho ist das schon beachtlich. Das gezeigte Teil hat imho auch keine 11 CUs, aber das ist ein anderes Thema.

Nakai
2017-05-31, 13:59:03
Nur so nebenbei. Der Sprung von Excavator (28nm) auf Zen (14nm) und der Wechsel der CPU-Microarchitektur, sollte schon einen großen Anteil der höheren Effizienz mit sich bringen. Ich habe den Effizienzvorteil nicht unterschlagen, nur sehe ich eher den CPU-Teil fürs erste als den größeren Sprung an.

Aber mal abwarten...

iuno
2017-05-31, 14:05:38
Ich auch (wie oben beschrieben). Das muss aber auch so sein, weil es sonst ueberhaupt nicht machbar ist. Vorher 2M/4T jetzt 4C/8T mit mehr Leistung und insgesamt (inkl. schnellerer GPU) halbem Verbrauch.

deekey777
2017-05-31, 14:43:30
Nur so nebenbei. Der Sprung von Excavator (28nm) auf Zen (14nm) und der Wechsel der CPU-Microarchitektur, sollte schon einen großen Anteil der höheren Effizienz mit sich bringen. Ich habe den Effizienzvorteil nicht unterschlagen, nur sehe ich eher den CPU-Teil fürs erste als den größeren Sprung an.

Aber mal abwarten...

Jetzt mal Hand aufs Herz:
Es ist eine nichtssagende Folie mit irgendwelchen Balken.


Und wie du schon angemerkt hast:
Nehmen wir an, dass auch die Vega-CUs der RR gleich hoch getaktet werden wie bei aktuellen BR-APUs. Ein A12-9800P hat auch 8 CUs, die Verbesserungen der Vega-Generation allein werden keine 40% Mehrleistung bieten. Nur taktet die CPU-Abteilung eines A12-9800P auf 700 MHz herunter, wenn volle Grafikleistung abgerufen wird (sieht man schön in 3DMark), das dürfte bei einer RR-APU nicht der Fall sein (hoffentlich), sprich höherer CPU-Takt und die verbesserte CPU-Leistung an sich zusammen mit Verbesserungen der Vega-Generation können eine Mehrleistung von 40% bringen - und weniger verbrauchen.

Wenn AMD bei RR alles richtig macht und den perfekten Punkt zwischen CPU-Takt und GPU-Takt bei Dauerbelastung findet, wird der Markt hoffentlich durcheinander gebracht und das Monopol von Intel gebrochen.

Leonidas
2017-05-31, 16:02:50
die wichtigsten Teil hast du IMHO unterschlagen. Der Verbrauch soll sich gleichzeitig halbieren. Bei Vega wird das nicht so sein. Und RX480/580 haben ja gezeigt wie schlecht die Skalierung auf 14nm (zumindest bei AMD GPUs) ist.


50% mehr Performance bei Verbrauchshalbierung will ich erstmal sehen. Das würde ja simplifiziert eine 3x so hohe Performance bei gleicher TDP ergeben. Eher unwahrscheinlich, das das passt. Jene Rechnung "... und mit halbem Verbrauch" passt wohl nur auf Ausnahmeszenarien, aber kaum bei den standardmäßigen 25W & 35W Typen.

Ganz allgemein ist das werben mit niedrigerem Verbrauch unter Mobile nicht zielführend, weil es dort ja feste TDP-Klassen gibt. Die Frage lautet daher immer: Wieviel mehr Performance unter derselben TDP-Klasse?

deekey777
2017-05-31, 16:12:43
Die TDP-Klassen haben doch nichts mit dem Verbrauch zu tun.

fondness
2017-05-31, 16:25:14
50% mehr Performance bei Verbrauchshalbierung will ich erstmal sehen. Das würde ja simplifiziert eine 3x so hohe Performance bei gleicher TDP ergeben. Eher unwahrscheinlich, das das passt. Jene Rechnung "... und mit halbem Verbrauch" passt wohl nur auf Ausnahmeszenarien, aber kaum bei den standardmäßigen 25W & 35W Typen.


Was genau ist daran unglaubwürdig? Das Ding liefert locker 50% mehr IPC bei 4C/8T vs. 2M/4T und dank 14nm FinFET bei sogar gesunkenem Verbrauch. 3x Perf/Watt sollte da allemal drin sein.

deekey777
2017-05-31, 16:41:55
Leute, vergesst doch diese Folie. Niemand weiß, was und wie gemessen wurde.

Nur so ein Milchmädchenbeispiel (malwieder): https://www.notebookcheck.com/Test-HP-EliteBook-725-G4-A12-9800B-Full-HD-Laptop.203474.0.html

Das ist die schnellste BR-APU der 15W-TDP-Klasse. In CB R15 schafft es beim ersten Durchlauf 230 Punkte, dann unter 210. Schon eine RR-APU mit 2C/4T dürfte über 300 Punkte erreichen, eine RR-APU mit 4C/8T über 600, so lange nicht zu sehr gedrosselt wird.

davidzo
2017-05-31, 22:35:39
Genauso groß wie Summit Ridge ist schon dick. Schließlich ist es Preisklasse unterhalb von Ryzen 5 auf Level Ryzen 3 und niedriger.

Nicht ganz, die meisten APUs werden im mobilebereich verkauft, da sind die ASPs höher, zumindest wenn man mit Intels I7 und i5 der U, S und HQ serie konkurrieren kann (ca. 300$).
Der Desktop ist immer noch kleiner als der Notebookmarkt und den Desktop teilt man sich immerhin mit summit ridge und threadripper. RR für Desktop wird daher nicht wesentlich mehr sein als die Resteverwertung der mobilAPU.

Leonidas
2017-06-01, 05:38:20
Die TDP-Klassen haben doch nichts mit dem Verbrauch zu tun.


Im Mobile-Segment durchaus. Da liegen die Chips näher dran am offiziellen Wert und sind vor allem Ausreißer nach oben hin nicht drin - da würden die Notebook-Herstellern den CPU-Bauern aber was husten, wenn die 15W-CPU plötzlich 30W verbraucht.

deekey777
2017-06-01, 09:13:40
Das ist ein Irrtum, dem ich selbst oft unterliege.

Ein gutes Beispiel sind die core m (meist TDP 4W): Um deren Turbotakt zu erreichen, darf selbst ein m3 bis zu 20W schlucken, irgendwann wird er auf seinen Basistakt gedrosselt, um eben die Kühlung zu gewährleisten. Wenn aber zu viel Leistung abgerufen wird ("Powervirus"), dann werden die core m noch mehr gedrosselt. Dass ausreichende Kühlung gerade bei core m entscheidend ist, zeigte schon das Surface Pro 4 mit core m3, dessen Leistungen die Konkurrenz mit stärkeren core m (m7) bei längerer Belastung nicht erreichen konnte.

Natürlich gibt es Hersteller, wo selbst der Turbotakt nicht ganz erreicht wird. Ob sie das zugunsten der Kühlung oder Laufzeit machen, weiß ich nicht.

pmx
2017-07-07, 17:58:02
Doofe Frage: Könnte man nicht ein Ryzen Die mit einem RavenRidge Die über infinity fabric auf einem MCM kombinieren? 12Cores + GPU?

Unicous
2017-07-07, 18:19:14
Und was soll das bringen?:confused:

Theoretisch ist das sicherlich möglich, der Nutzen erschließt sich mir nur nicht.

M4xw0lf
2017-07-07, 20:26:50
Und was soll das bringen?:confused:

Theoretisch ist das sicherlich möglich, der Nutzen erschließt sich mir nur nicht.
24Thread-CPU mit iGPU, wäre zumindest der einzige Prozessor seiner Art. Vielleicht für CPU-intensive Anwendungsfälle, die eine GPU nur zur Bildausgabe brauchen? Für den mittelharten Office-Einsatz klingt das doch gar nicht mal so verkehrt. :uponder:

Unicous
2017-07-07, 20:37:12
Wer braucht im Office-PC 24 Threads?:eek:

Und ob das günstiger wäre als ein Threadripper plus 25 Euro Grafikkarte wage ich doch zu bezweifeln.

Da du ein neues Package brauchst, kannst du das Ding jedenfalls nicht in AM4 bringen. Und TR4 geht wahrscheinlich nicht.

Also ich sehe keinen konkreten Anwendungsfall . Für alles andere gibt es dedizierte Office-Server.

LadyWhirlwind
2017-07-07, 21:04:48
Wer braucht im Office-PC 24 Threads?:eek:

Und ob das günstiger wäre als ein Threadripper plus 25 Euro Grafikkarte wage ich doch zu bezweifeln.

Da du ein neues Package brauchst, kannst du das Ding jedenfalls nicht in AM4 bringen. Und TR4 geht wahrscheinlich nicht.

Also ich sehe keinen konkreten Anwendungsfall . Für alles andere gibt es dedizierte Office-Server.


Nein, das ist eher unwahrscheinlich. So eine CPU würde ja nicht in die bestehende Produktmatrix von AMD passen. Im Moment ist es so, dass bei AMD es APUs für Notebooks, Kompaktgeräte/AiOs, Entry & Midrange PCs gibt. Darüber hinaus geht AMD davon aus, das eine GPU separat, nach den Bedürfnissen des Käufers verbaut wird. Jetzt plötzlich irgendwo weit weit oben wieder eine iGPU zu bringen macht keinen Sinn. Da kann, wie Unicous gesagt hat, auch eine 25 USD GPU verwendet werden.
Eine iGPU heisst ja auch immer, es müssen die entsprechenden Anschlüsse fürs Display nach aussen geführt werden etc. Mit einer iGPU ist es alleine dann nicht getan, sondern es müssen auch passende Mainboards her. Das kostet im Endeffekt mehr als es bringt. Ich bin sicher, dein Ansprechpartner beim AMD macht dir ein gutes Angebot wenn du noch GPUs dazu brauchst. :)

Naitsabes
2017-07-07, 21:17:30
Wäre für die Serversockel denn ein MCM möglich?
Also dass die iGPU nur als Rechenbeschleuniger genutzt wird, ohne DisplayOut?

basix
2017-07-07, 21:26:30
50% mehr Performance bei Verbrauchshalbierung will ich erstmal sehen. Das würde ja simplifiziert eine 3x so hohe Performance bei gleicher TDP ergeben. Eher unwahrscheinlich, das das passt.

Wieso nicht?

Bei Mobile sind die 50% Power evtl. gar nicht auf die Maximalleistung bezogen, sondern auf durchschnittliche Laufzeiten des Notebooks oder zumindest den durchschnittlichen Verbrauch der CPU. Das heisst bei einem typischen Use Case ist auch viel Idle Zeit, Youtoube etc. dabei. Das kann schon wesentlich effizienter sein als heute z.B. ein FX™ 9830P (AMD wird zudem sicher nicht das effizienteste Modell in den Vergleich einbeziehen).

Wenn man die Maximalleistung anschaut: Ein R7 1700 hat 65W TDP. Dann halbiert man das auf 4C/8T und reduziert den Takt auf sagen wir mal 2.8GHz Base und 3.4GHz Boost. Dann ist man vielleicht noch bei 25-30W @ 4C/8T (siehe https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11403873&postcount=6445 und das ist Prime, nur HWinfo ist vielleicht nicht die genaueste Messmethode...) und man ist viel schneller als jedes AMD Pendant und bei den genannten ca. +50% bei 1/2 der 45W TDP des 9830P. Dann nimmt man vielleicht noch einen Bench, der Zen gut liegt und Carrizo nicht (Blender oder Cinebench?) und man hat nochmals einen Boost

Zur DIE Size: 1x CCX und eine Vega basierte GPU mit 768-1024 Shadern. Das passt in die geschätzen 200-220mm2. CCX = 45mm2; 1/4 Vega 10 = ca. 120-130mm2; Memory Interface und Connectivity = 30-50mm2.

Vega hat zudem den riesen Vorteil des TBR, damit hängt man wahrscheinlich nicht an der Bandbreite und verbrät nicht unnötig Energie. Dann noch breite GPU bei sehr tiefem Takt der GPU (sagen wir mal 1.0 GHz). Beides vorteilhaft für die Effizienz. Ich würde zwar dann mehr als +50% Performance erwarten beim genannten Shader Count und Takt.


Edit:
Wäre für die Serversockel denn ein MCM möglich?
Also dass die iGPU nur als Rechenbeschleuniger genutzt wird, ohne DisplayOut?

Da bei EPYC auf dem Fabric via IF kommuniziert grundsätzlich schon. Könnte aber auch normal vie PCIe gemacht werden. Der HBM für die GPU würde ja auch gleich im Package auf dem Interposer sitzen. Folgende Überlegungen dazu:

Passt das mit der Bauhöhe? Würde was mit dem Heat Spreader kollidieren?
Benötigt Vega etwas was nicht bei einem normalen Sockel vorhanden ist? z.B. andere externe Spannungswandler
Wie gross sind die Software-Anpassungen?

Wenn ich mir das heutige EPYC Package so anschaue, wären theoretisch 1x Vega 10 und 2x 8C Summit Ridge denkbar als Maximalausbau. Das wäre ziemlich ein Burner was kombinierte Workloads anbelangt. Die GPU müsste natürlich auf stark reduziertem Takt laufen. Für Server ist es aber wahrscheinlich einfacher, einfach normale EPYC + GPU dediziert. Da ist man einfach flexibler im Aufbau. Mit wenig Platz wie bei einem Mac Pro könnte as aber interessant sein ;)

Langlay
2017-07-08, 23:04:07
24Thread-CPU mit iGPU, wäre zumindest der einzige Prozessor seiner Art. Vielleicht für CPU-intensive Anwendungsfälle, die eine GPU nur zur Bildausgabe brauchen? Für den mittelharten Office-Einsatz klingt das doch gar nicht mal so verkehrt. :uponder:


Wenn dann würde ich das eher im Renderbereich sehen. Also Videos encodieren, Bilder rendern die Geschichte.

Leonidas
2017-07-09, 05:31:33
Das ist ein Irrtum, dem ich selbst oft unterliege.

Ein gutes Beispiel sind die core m (meist TDP 4W): Um deren Turbotakt zu erreichen, darf selbst ein m3 bis zu 20W schlucken, irgendwann wird er auf seinen Basistakt gedrosselt, um eben die Kühlung zu gewährleisten.


Ich denke, das ist eine Sondersituation von 4W-CPUs. Aber bei regulären 18W, 25W, 35W Modellen wird es das nicht geben.

deekey777
2017-07-09, 12:00:40
Ich denke, das ist eine Sondersituation von 4W-CPUs. Aber bei regulären 18W, 25W, 35W Modellen wird es das nicht geben.
Natürlich verbrauchen diese auch mehr als die TDP, wenn die Kühlung und Energieverwaltung dies zulässt. Nur pendelt sich dann der Takt irgendwann ein, um die TDP einzuhalten.


Wieso nicht?

Bei Mobile sind die 50% Power evtl. gar nicht auf die Maximalleistung bezogen, sondern auf durchschnittliche Laufzeiten des Notebooks oder zumindest den durchschnittlichen Verbrauch der CPU. Das heisst bei einem typischen Use Case ist auch viel Idle Zeit, Youtoube etc. dabei. Das kann schon wesentlich effizienter sein als heute z.B. ein FX™ 9830P (AMD wird zudem sicher nicht das effizienteste Modell in den Vergleich einbeziehen).

Wenn man die Maximalleistung anschaut: Ein R7 1700 hat 65W TDP. Dann halbiert man das auf 4C/8T und reduziert den Takt auf sagen wir mal 2.8GHz Base und 3.4GHz Boost. Dann ist man vielleicht noch bei 25-30W @ 4C/8T (siehe https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11403873&postcount=6445 und das ist Prime, nur HWinfo ist vielleicht nicht die genaueste Messmethode...) und man ist viel schneller als jedes AMD Pendant und bei den genannten ca. +50% bei 1/2 der 45W TDP des 9830P. Dann nimmt man vielleicht noch einen Bench, der Zen gut liegt und Carrizo nicht (Blender oder Cinebench?) und man hat nochmals einen Boost

Zur DIE Size: 1x CCX und eine Vega basierte GPU mit 768-1024 Shadern. Das passt in die geschätzen 200-220mm2. CCX = 45mm2; 1/4 Vega 10 = ca. 120-130mm2; Memory Interface und Connectivity = 30-50mm2.

Vega hat zudem den riesen Vorteil des TBR, damit hängt man wahrscheinlich nicht an der Bandbreite und verbrät nicht unnötig Energie. Dann noch breite GPU bei sehr tiefem Takt der GPU (sagen wir mal 1.0 GHz). Beides vorteilhaft für die Effizienz. Ich würde zwar dann mehr als +50% Performance erwarten beim genannten Shader Count und Takt.




Paar Seiten zurückblättern. Es gibt ein Die-Foto einer RR-PU, wahrscheinlich (G)HO mit 4C/8T und bis zu 11 CUs (https://videocardz.com/69428/amd-snowy-owl-naples-starship-grey-hawk-river-hawk-great-horned-owl, Foilien 72 etc).
Das ist der aktuelle Stand (vom Februar 2016!). Wenn AMD es bei den aktuellen BR-APUs wie A12-9700P es schafft, dass die beiden Module mit 1,4 GHz läuft, wenn die volle GPU-Leistung abgerufen wird, dann wird man bei AMD auch schaffen, dass 4 Zen-Kerne mit höherem Takt und höherer Pro-Takt-Leistung deutlich höhere Leistung bei weniger Verbrauch liefern.

basix
2017-07-11, 22:37:10
Ah ok. Dann sind max. 704 CUs fix. Nun gut, man hat gar nicht mehr Speicherbandbreite zur Verfügung. Auch wenn Vega mit TBR hier sicher einen massiven Boost gegenüber heute verspricht. Bei DDR4 3200MHz sind es max. 51.2GB/s. Das ist 1/10 von Vega 64 bei 1/6 der Shader. Der Takt wird wahrscheinlich nur 2/3 der dedizierten Lösung betragen (also ca. 1.0-1.1GHz). Das macht Summa Summarum fast die gleiche Bandbreite pro FLOP wie bei Vega 64. Je nachdem wie viel davon der Prozessor wegschnappt und man noch Bandbreitenreserve hat, könnte man im Idealfall nur noch wenig bis marginal bandbreitenlimitiert sein. Ebenfalls im Optimalfall wäre das dann etwa auf dem Niveau einer RX 460. Nicht schlecht für eine APU :)

Hängt halt an der Effizienz des TBR etc. Nach dem Vega Launch kann man ein genaueres Bild zeichnen.

deekey777
2017-07-11, 23:09:50
Und mit 11 CUs fehlt nur eine CU auf die Xbox One. Zusammen mit Architekturverbesserungen könnte die Leistung überboten werden.

DDR4-2400 dürfte aktuell Standard für Laptops sein (es gibt aber schnelleren Speicher, trotzdem findet sich meist DDR4-2400 in den Geräten). Es würde mich nicht wundern, dass auch weiterhin DDR4-2400 verbaut wird, um Koten zu sparen.

Trotzdem: Ein Laptop mit einer APU mit 4C/8T und 11 CUs und DDR4-2400 im DC-Betrieb dürfte die meisten Spiele in FullHD bei mittleren Einstellungen stemmen können, sofern die Kühlung stimmt und die TDP nicht auf max. 15W begrenzt wird, sondern wenigstens das Doppelte möglich ist. Hier wird AMD viel Überzeugungskraft aufbringen müssen, damit APUs endlich in Laptops der TDP-Klasse über 30W verbaut werden.

DinosaurusRex
2017-07-12, 08:36:04
Werden die APUs auch FP16 unterschützen, oder ist das den dedizierten Grafiklösungen vorbehalten? Weil damit ließe sich in Zukunft sicher auch noch ein wenig Bandbreite einsparen.

deekey777
2017-07-12, 08:57:29
Die APUs unterstützen bereits FP16 nativ.

Gipsel
2017-07-12, 09:43:14
Die APUs unterstützen bereits FP16 nativ.Ich vermute mal, er meint mit verdoppelter Rate. Und ich fände es blödsinnig, das bei APUs zu deaktivieren. Das ist hoffentlich integraler Bestandteil bei Vega und überall verfügbar.

deekey777
2017-07-12, 09:47:43
Kann man mit doppelten FP16-Durchsatz eigentlich Bandbreite etc. sparen?

Ich tippe eher, dass die FP64-Fähigkeiten der aktuellen APUs stark beschnitten werden.

DinosaurusRex
2017-07-12, 10:18:42
Ich vermute mal, er meint mit verdoppelter Rate.

Ja genau. ^_^

Naitsabes
2017-07-12, 10:24:51
Kann man mit doppelten FP16-Durchsatz eigentlich Bandbreite etc. sparen?

Ich tippe eher, dass die FP64-Fähigkeiten der aktuellen APUs stark beschnitten werden.



Bisher ist genau das Gegenteil der Fall. Carrizo hat afaik 1:4 dp

deekey777
2017-07-12, 13:11:14
Bisher ist genau das Gegenteil der Fall. Carrizo hat afaik 1:4 dp

1:4 ist nicht 1:8 oder 1:16 wie bei den aktuellen Desktopkarten.

mboeller
2017-07-12, 13:22:39
Britol Ridge hat sogar 1:2

http://www.planet3dnow.de/cms/27562-bristol-ridge-mit-ungewoehnlich-hoher-double-precision-rechenleistung/

deekey777
2017-07-12, 13:50:27
Britol Ridge hat sogar 1:2

http://www.planet3dnow.de/cms/27562-bristol-ridge-mit-ungewoehnlich-hoher-double-precision-rechenleistung/
Ach, genau. :)

Entropy
2017-07-12, 18:06:03
Kann man mit doppelten FP16-Durchsatz eigentlich Bandbreite etc. sparen? Mit FP16 kannst du grundsätzlich Bandbreite sparen, das ist z.B. der einzige Grund, weshalb Intel das in SSE verbaut hat, es ist auch unabhängig vom ALU Durchsatz, denn, wie bei Intel, könntest du die Daten immer vorher zu FP32 konvertieren, damit rechnen und zurückkonvertieren.
https://software.intel.com/en-us/articles/performance-benefits-of-half-precision-floats

FP16 als Speicherformat einzubauen, wenn du nicht Bandbreitenlimitiert bist würde natürlich nichts bringen. Bei doppeltem FP16-Durchsatz wärst du mit FP16 als Speicherformat dann genau so limitiert wie es bei FP32 war.

basix
2017-07-12, 21:36:44
Für APUs und Mobile würde sich FP16 also lohnen, wenn nicht FP32 benötigt wird. Unabhängig davon, ob man jetzt doppelte oder einfache FP16 Rate hat. Wie gross könnte eigentlich der FP16 Anteil eines typischen Spieles in etwa sein? 20%? 40%?

Zudem: Weniger benötigte Bandbreite erhöht noch die Energieeffizienz drastisch.

Gipsel
2017-07-12, 21:40:37
Als Datenformat im Speicher unterstützen GPUs schon lange alle möglichen Formate (verschieden große Integer- und Fließkomma-Formate). Und die werden auch genutzt. Neu ist doch nur, daß mit FP16 ab Vega auch schneller gerechnet werden kann (bisher bringt es eigentlich nur was bei belegter Speichermenge und -bandbreite, [ab GCN3 auch beim belegten Registerplatz]).

deekey777
2017-07-23, 10:40:36
RR-APUs für die ThinkPads? https://www.notebookcheck.com/Lenovo-ThinkPad-Neue-Modell-Serie-fuer-AMD-Raven-Ridge-geplant.236888.0.html

bun
2017-07-23, 12:39:24
http://i.imgur.com/AQewBTL.png

~211,85 mm²

deekey777
2017-07-27, 19:23:36
Was ist das denn? Ryzen 5 2500U in Ashes?
https://www.computerbase.de/2017-07/amd-ryzen-5-2500u-benchmark/
https://videocardz.com/71232/amd-ryzen-5-2500u-with-radeon-vega-graphics-spotted

Sardaukar.nsn
2017-07-27, 20:02:05
Ist das denn der potentielle Kandidat für z.B. eine Playstation 5?

dildo4u
2017-07-27, 20:34:36
Nein die die GPU ist viel zu klein,PS4 Pro hat schon eine GPU im Bereich der RX 470,die alleine 130 Watt zieht.Und die PS4 Pro nutzt schon wie Ryzen Mobile 14nm.

Blediator16
2017-07-27, 20:41:14
Sieht stark nach der kleinsten APU aus. 2500U hört sich so an, als ob man sich an Intel orientiert :D

deekey777
2017-07-27, 21:52:12
Sieht stark nach der kleinsten APU aus. 2500U hört sich so an, als ob man sich an Intel orientiert :D

Wie kommst du darauf, dass es die kleinste APU ist?

Opprobrium
2017-07-27, 21:52:47
Sieht stark nach der kleinsten APU aus. 2500U hört sich so an, als ob man sich an Intel orientiert :D

Naja, wenn sie bei ihrem Ryzen Schema bleiben dürfte das eher Mittelklasse sein, drunter kommt dann 2300, drüber gehts bis 2800. Ist aber natürlich auch möglich, dass sie sich was Anderes überlegen. Womöglich wäre das sonst zu "einfach" :smile:

Eventuell wird dann im Winter mein Sandy Bridge Thinkpad in den Ruhestand geschickt.

deekey777
2017-07-27, 22:06:49
Zumindest passt R5 2500U zum Namensschema: https://www.3dcenter.org/news/namensschema-von-amds-ryzen-prozessoren-offengelegt


Halt, 2 wie zweite Generation? Zen+ (Pinnacle Ridge oder so)?

reaperrr
2017-07-28, 12:47:15
Nein die die GPU ist viel zu klein,PS4 Pro hat schon eine GPU im Bereich der RX 470,die alleine 130 Watt zieht.Und die PS4 Pro nutzt schon wie Ryzen Mobile 14nm.
Stimmt zwar größtenteils (wobei die Konsolen-Chips m.W. bei TSMC in 16FF+ gefertigt werden), aber die GPU der PS4Pro zieht garantiert keine 130W, die zieht nichtmal 100W.
Bei 910 MHz Takt braucht auch eine RX470 nur etwas im Bereich 0.8 - 0.85V Spannung, das drückt den Verbrauch pro MHz massiv.

Auf die Performance der Ur-XBox One könnte Raven Ridge aber durchaus kommen, evtl. sogar etwas drüber.


Halt, 2 wie zweite Generation? Zen+ (Pinnacle Ridge oder so)?
Dass RR schon zumindest ein paar kleinere Verbesserungen gegenüber Summit Ridge hat ist nicht ausgeschlossen, war damals bei Trinity vs. Bulldozer ja auch so, dass die APU die allererste Architektur-Revision einfach übersprungen hat.

Palpatin
2017-07-28, 13:07:56
Wenn RavenRidge 40% mehr Rohleistung als der Vorgänger bei der GPU hat so wie die Folien versprechen müsste man ca bei ~1,3x TFlops rauskommen und in etwa auf Xbox One S Niveau liegen. Ein 12 Zoll Convertible damit würde mir schon zusagen.

deekey777
2017-07-28, 13:57:42
Wenn RavenRidge 40% mehr Rohleistung als der Vorgänger bei der GPU hat so wie die Folien versprechen müsste man ca bei ~1,3x TFlops rauskommen und in etwa auf Xbox One S Niveau liegen. Ein 12 Zoll Convertible damit würde mir schon zusagen.
Traue keiner Folie, die du selbst nicht...

Ich denke eher, dass die 40% Mehrleistung nicht durch GFLOPS kommen, sondern die RR-APU leistet in irgendeinem Benchmark einfach 40% mehr.

Milchmädchen: Aktuelle A12-9800P haben schon 8 CUs und takten mit bis zu 900 MHz, also 921,6 GFLOPS sind drin, mit 11 CUs und ähnlich hohem Takt 1.267 GFLOPS, also im Bereich der Xbox One. Nur wird eine RR-APU auch 4 Zen-Kerne haben (gerade die können für einen Performanceschub sorgen).

Ein 12'' 2in1 wird eher eine 15W-APU haben, also mit 8 CUs. Auf der anderen Seite steckt im Surface Pro (2017) auch ein i7-7660U mit Iris Grafik (640).

Monsta
2017-07-28, 14:46:21
Stimmt zwar größtenteils (wobei die Konsolen-Chips m.W. bei TSMC in 16FF+ gefertigt werden), aber die GPU der PS4Pro zieht garantiert keine 130W, die zieht nichtmal 100W.
Bei 910 MHz Takt braucht auch eine RX470 nur etwas im Bereich 0.8 - 0.85V Spannung, das drückt den Verbrauch pro MHz massiv.

Auf die Performance der Ur-XBox One könnte Raven Ridge aber durchaus kommen, evtl. sogar etwas drüber.


Dass RR schon zumindest ein paar kleinere Verbesserungen gegenüber Summit Ridge hat ist nicht ausgeschlossen, war damals bei Trinity vs. Bulldozer ja auch so, dass die APU die allererste Architektur-Revision einfach übersprungen hat.

Laut diversen Test zieht die PS4 Pro 155Watt, da glaub ich kaum das die GPU unter 100Watt bleibt.

Opprobrium
2017-07-28, 17:11:23
Laut diversen Test zieht die PS4 Pro 155Watt, da glaub ich kaum das die GPU unter 100Watt bleibt.
Naja, nicht weit drunter, aber abzgl. CPU, RAM, Laufwerken, Chipsatz, Lüfter etc...

Mich würd mal interessieren wie sehr die ganzen Vega Verzögerungen, mögliche Treiberprobleme und Katastrophenmeldungen sich auf RR ausgewirkt haben und umgekehrt. Anfang nächster Woche sollte man ja recht gute Rückschlüsse auf die iGPU Leistung anstellen können.

Complicated
2017-07-28, 17:21:35
Vega hat keine Auswirkungen auf den Zeitplan von RR. Das sind völlig unterschiedliche Produkte die eigene Entwicklerteams haben. Bisher ist mir auch nichts über Treiberprobleme oder Katastrophenmeldungen zu Vega bekannt. Hast du da mal einen Link?

Die Vega Frontier Edition hat durchweg posititve Testergebnise erzielt in den vorgesehenen Workloads, daher würde ich sagen es ist alles im Zeitplan mit RR.

Opprobrium
2017-07-28, 17:29:15
Nun Ja, ich habe es vielleicht etwas überspitzt formuliert, aber ich bezog mich auf die lebhafte Diskussion hier im Vega Spekulationsthread. Und das RR mit integrierten Vega CUs überhaupt nichts mit Vega zu tun hat ist eine gewagte These.

Complicated
2017-07-28, 17:55:56
"Nichts zu tun" und eigene Entwicklerteams und daher nicht in Abhängigkeit zueinander beim Produktlaunch sind schon zwei verschieden Aussagen würde ich meinen ;)

Die Vega-IP wird hier ja auf einen gemeinsamen Die integriert mit Zen CPU-IP. Die nutzen sogar Transistoren mit anderen Eigenschaften die spezifisch für APUs und deren Bedürfnisse ausgewählt sind bei AMD.

Ich kann dir zustimmen, dass die "lebhafte Diskussion" zu Vega teilweise einer Katastrophe ähnelt ;) Sagt nur derzeit nichts über den Stand des Produktes an sich aus.

Opprobrium
2017-07-28, 18:04:32
Ich kann dir zustimmen, dass die "lebhafte Diskussion" zu Vega teilweise einer Katastrophe ähnelt ;) Sagt nur derzeit nichts über den Stand des Produktes an sich aus.

Das stimmt natürlich. Ich selbst bin sehr gespannt auf die nächsten paar Tage, man muss aber auch eingestehen, dass Vega nicht nur etwas spät dran ist, sondern dass es tatsächlich so wirkt als würde da bis zur letzten Sekunde am Treiber getüftelt. Kann natürlich auch alles ein richtig cooler Bluff seitens AMD sein, bisher halten sie zumindest ihr Pokerface aufrecht :)

Und spätestens bei den Treibern kommen dann APU und GPU wieder zusammen, denn das da auch zwei getrennte Entwicklerteams arbeiten glaube ich nicht.

Aber wie gesagt, die nächsten Tage werden nicht nur wegen Vega RX spannend, sondern für mich auch wegen Raven Ridge.

Allgmein ein spannendes und gutes Jahr für AMD, selbst wenn Vega nicht so ein klarer Erfolg werden sollte wie Zen.

Pirx
2017-07-28, 20:49:45
auch beim "Stromverbrauch" kommen APU und GPU a bisserl zusammen :-/

reaperrr
2017-07-28, 21:05:36
auch beim "Stromverbrauch" kommen APU und GPU a bisserl zusammen :-/

Vega XT: 220W GPU-TDP
220 * 11(RR-CUs) / 64 (V10-CUs) = 37,8W
37,8 * 1200 (RR-Durchschnittstakt) / ~1500 (V10 Durchschnittstakt) = 30,25
30,25 * (1,0V * 1,0V RR GPU-Spannung) / (1,15V * 1,15V V10-GPU-Spannung) = ~22,87W

Bliebe bei ca. 1.2 GHz durchschnittlichem IGP-Takt und 65W TDP also ~42W für den einen CCX, wenn es so kommt. Das sollte problemlos für R5-1400-Performance auf der CPU-Seite reichen, bei entsprechendem Binning, und für BR+30-40% auf GPU-Seite.

Und die TDP-Angaben entsprechen ja auch bei AMD nicht unbedingt dem maximalen Verbrauch, Bristol Ridge und die 65W-Kaveris bleiben auch nicht wirklich unter der 65W-Grenze, jedenfalls die am höchsten taktenden 65W-Modelle nicht.


Also bei RR habe ich wesentlich weniger Bedenken beim Verbrauch als bei Vega10, weil AMD hier nicht gezwungen ist die Taktraten weit über den Sweetspot zu prügeln, bloß um einigermaßen gut gegen die Konkurrenz anzukommen.

deekey777
2017-07-30, 17:35:07
Raven Ridge (http://ranker.sisoftware.net/show_system.php?q=cea598ab9faa9eaa9cbadde0cdfcdaa895a583ead7e6c0a895a086fec3f2d4 b1d4e9d9ff8cb189&l=de).
Hier noch der Link von dir aus dem P3D-Forum:
http://ranker.sisoftware.net/show_device.php?q=c9a598d994d0f0c1f4b0f4d493e180f098f192e1c7a09db081a7d5e8d9ff96 ab8de5d8fe86bb9df89da090b6c5f8c0&l=en

deekey777
2017-07-30, 20:13:44
SiSoftware Sandra

Benchmarkresultate
Shader-Gesamtleistung : 395.63MPixel/s
Shader Halb-Fließkommaberechnungen Nativ : 477MPixel/s
Shader Einzel-Fließkommaberechnungen Nativ : 530.3MPixel/s
Shader Doppel-Fließkommaberechnungen Nativ : 295.16MPixel/s
Shader Vierfach-Fließkommaberechnungen Nativ : 15MPixel/s
Schnittstelle : OpenCL
Ergebnisse : Höhere Werte sind besser.
Base 10 Ergebnis Multiplikatoren : 1Gpix(/s) = 1000MPix(/s), 1Mpix(/s) = 1000kPix(/s), 1kPix(/s) = 1000 pixel(/s), usw.

SiSoftware Sandra

Benchmarkresultate
Bandbreite Kryptografie : 4.24GB/s
Bandbreite Verschlüsselung/Entschlüsselung AES256-ECB GP : 3.26GB/s
Bandbreite Hashing SHA2-256 GP : 5.52GB/s
Schnittstelle : OpenCL
Ergebnisse : Höhere Werte sind besser.
Base 2 Ergebnis Multiplikatoren : 1GB(/s) = 1024MB(/s), 1MB(/s) = 1024kB(/s), 1kB(/s) = 1024 bytes(/s), usw.




SiSoftware Sandra

Benchmarkresultate
Allgemeine Leistung Option Preisberechnung : 69.09kOPT/s
Preisberechnung Black-Scholes Option (Euro) : 285.55MOPT/s
Preisberechnung Binomische Option (Euro) : 63kOPT/s
Preisberechnung Monte Carlo Option (Euro) : 75.72kOPT/s
Typ : Fließkomma (Hohe Genauigkeit - FP64)
Schnittstelle : OpenCL
Ergebnisse : Höhere Werte sind besser.
Base 10 Ergebnis Multiplikatoren : 1GOPS = 1000MOPS, 1MOPS = 1000kOPS, 1kOPS = 1000OPS, usw.




SiSoftware Sandra

Benchmarkresultate
Allgemeine Wissenschaftliche-Leistung : 27.4GFLOPS
Allgemeine Matrix-Multiplikation (GEMM) : 79.23GFLOPS
Fast Fourier Transformation (FFT) : 9.48GFLOPS
N-Körper-Simulation : 119.15GFLOPS
Typ : Fließkomma (Hohe Genauigkeit - FP64)
Schnittstelle : OpenCL
Ergebnisse : Höhere Werte sind besser.
Base 10 Ergebnis Multiplikatoren : 1GOPS = 1000MOPS, 1MOPS = 1000kOPS, 1kOPS = 1000OPS, usw.



Ich tippe mal auf 1:4 FP64-Leistung.

teetasse
2017-07-31, 19:01:04
Mit welcher Grafikkarte würde eure Glaskugel
- die stärkste Bristol Ridge APU vergleichen?
- die stärkste Raven Ridge-APU vergleichen?

Im Sinne von "entspricht einer xxx-Grafikkarte ..."

deekey777
2017-07-31, 19:39:12
Schwer zu sagen, weil die Leistung der gesamten APU von der TDP abhängt, während eine dedizierte Grafikkarte freien Lauf hat. Hinzu kommt die Bandbreitenproblematik, wobei die Perlen wie die R5 240 oder R5 435 nicht viel mehr Bandbreite haben (oder auch weniger). Die R7 250 mit ihren 6 CUs, R7 255 mit 8 CU oder die aktuelle RX 550 mit ebenfalls 8 CUs (und mehr Takt) haben dagegen ein 128bit-SI und somit deutlich mehr Bandbreite.

spotz
2017-08-06, 04:02:48
Ich weiß das wir hier spekulieren, aber inwieweit könnte die stärkste Raven Ridge APU mit 10 bis 11 CUs und der GCN 5 Architektur die von dir aufgeführten Nachteile bei Speicherbandbreite, Takt und ggf TDP gegenüber einer R7 250/255 und RX 550 (6 und 8 CUs, GCN 1 und 4) wieder wettmachen?

Der_Korken
2017-08-06, 09:38:19
Ich weiß das wir hier spekulieren, aber inwieweit könnte die stärkste Raven Ridge APU mit 10 bis 11 CUs und der GCN 5 Architektur die von dir aufgeführten Nachteile bei Speicherbandbreite, Takt und ggf TDP gegenüber einer R7 250/255 und RX 550 (6 und 8 CUs, GCN 1 und 4) wieder wettmachen?

Selbst mit Dualchannel DDR4-3200 bleibt nur knapp halb so viel Bandbreite übrig wie eine RX550 zur Verfügung und die müssen sich CPU und IGP auch noch teilen. Das wird Vega in keinem Fall abfedern. Allerdings dürften die Vega-IGPs ähnliche Taktraten erreichen wie "ausgewachsene" Polaris-Karten, da sich die Taktbarkeit deutlich verbessert hat und somit auch der Sweetspot nach oben verschoben hat. Für eine RX550 könnte es im Schnitt vielleicht sogar reichen. Genau kann das aber keiner sagen, da noch keine Vega-Karte getestet wurde und man noch gar nicht weiß, wie starkt die µ-Architektur an der Bandbreite hängt.

dargo
2017-08-06, 09:49:59
Bandbreite sollte kein Problem bei 11 bis 12 CUs werden wenn die schnellere APU laut Gerüchten tatsächlich HBM2 abbekommt. Mit einem Stack und 800Mhz (siehe Vega 56) ist man schon bei 200GB/s. Und dank HBCC könnten eventuell 2GB für dieses Segment schon reichen. Gibt es überhaupt 2GB HBM2 oder hat der kleinste 4GB?

spotz
2017-08-06, 12:21:58
Abgesehen mal davon ob es HBM in 2 GB gibt, ist dieser Speicher denn günstig genug für so ein Marktsegment? Ich googlete mal kurz und bei Fudzilla (http://www.fudzilla.com/news/graphics/43731-vega-hbm-2-8gb-memory-stack-cost-160) stand im Mai 2017 das ein 8 GB Riegel 160$ kostet - also 20$ (wohl auch €) pro GB. Mir erscheint das ziemlich viel für eine bessere APU-Grafiklösung.
Selbst mit Dualchannel DDR4-3200 bleibt nur knapp halb so viel Bandbreite übrig wie eine RX550 zur Verfügung und die müssen sich CPU und IGP auch noch teilen. Das wird Vega in keinem Fall abfedern. Allerdings dürften die Vega-IGPs ähnliche Taktraten erreichen wie "ausgewachsene" Polaris-Karten, da sich die Taktbarkeit deutlich verbessert hat und somit auch der Sweetspot nach oben verschoben hat. Für eine RX550 könnte es im Schnitt vielleicht sogar reichen.
Kann ich mir das so vorstellen dass die Speicherbandbreite immer mehr zur Geltung kommt, je mehr Videodaten anfallen? Also das beispielsweise Raven Ridge und RX 550 bei ähnlicher Rechenleistung (CUs, Takt) in einem Spiel bei 900p in niedrigen Details noch vergleichbar viele Bilder pro Sekunde haben, aber dann bei 1080p in mittleren Details die Raven Ridge APU mangels Speicherbandbreite gegenüber der RX 550 abfällt? Wäre ein solches Phänomen zu erwarten bzw wahrscheinlich?

deekey777
2017-08-06, 13:54:27
Es gibt keine Anhaltspunkte dafür, dass die APUs HBM als Puffer bekommen. Es gab vor weit über einem Jahr eine Spekulation, dass es eine APU mit mindestens 1024 SPs geben wird, die über HBM verfügen wird. Aber von dieser hört man nichts.

Windi
2017-08-06, 16:28:21
Ich hoffe zwar immer wieder auf leistungsfähige APUs, aber momentan glaube ich nicht dran.

Vor einiger Zeit gab es kurz das Gerücht, das von Raven Ridge auch eine Variante mit HBM kommen soll. Aber das war es dann auch, seit dem kommt nichts mehr. Nichts von AMD, nichts von den Speicherherstellern und auch nichts von den OEMs.
Früher gab es auch einmal Gerüchte, AMDs APUs würden GDDR unterstützen. Dann hätten die Hersteller die APUs einfach zusammen mit dem Speicher aufs Board löten können und man hätte eine sehr leistungsstarke Lösung gehabt. Es kam aber nichts.

Auch scheint HBM noch zu teuer zu sein. Man braucht ja nicht nur den Speicher, sondern auch den Interposer (und beides muss noch verlötet werden).

Für 2018 hatte Samsung Billig-HBM angekündigt, vielleicht kommt dann mal was.

deekey777
2017-08-06, 17:04:45
Es ist falsch zu denken, dass eine RR-APU mit 4C/8T und bis zu 11 CUs nicht leistungsfähig ist. Die Xbox One hat 12 CUs und schwächere CPU-Kerne (aber deutlich mehr Speicherdurchsatz).

reaperrr
2017-08-06, 17:19:52
Es ist falsch zu denken, dass eine RR-APU mit 4C/8T und bis zu 11 CUs nicht leistungsfähig ist. Die Xbox One hat 12 CUs und schwächere CPU-Kerne (aber deutlich mehr Speicherdurchsatz).
Mit etwas Glück hat AMD den kleineren Prozess genutzt, um der iGPU den 2-4fachen L2 zu spendieren, zusammen mit Unterstützung für höhere RAM-Takte und DCC-Verbesserungen könnte dann schon ne ordentliche Steigerung gegenüber einem A12-9800 rauskommen.
Ansonsten hab ich noch die leise Hoffnung, dass der CPU-Teil von RR dank des L3-Caches weniger Speicher-Bandbreite abzwacken muss als die Module von BR.

Ich hoffe ja auch noch immer, dass irgendwann mal der erhoffte Durchbruch bei APUs kommt. Was bei dem nervigen "billige CPU + Grafikkarte ist doch eh schneller" Gelaber nämlich jedes verdammte Mal komplett ausgeblendet wird, ist dass Grafikkarten zum einen die Geräuschkulisse erhöhen (selbst wenn sie relativ leise sind) und zum anderen - viel entscheidender - nach meiner Erfahrung ein VIEL höheres Defekt-Risiko haben.
Die Mehrheit(!) meiner dedizierten Grafikkarten der letzten 10 Jahre hat innerhalb von 2 Jahren irgendwelche Stablilitäts- oder Grafikfehler-Probleme bekommen, und ich vermute, dass das oft genug an billigen PCB-Komponenten oder sterbenden VRAM-Chips liegt, beides kann bei APUs in der Form logischerweise nicht auftreten, und Mainboards / CPUs sind nach meiner Erfahrung definitiv wesentlich langlebiger.

Rechnen tue ich mit einem Sprung von mehr als höchstens 20-30% aber nicht, weil AMD wahrscheinlich seine eigenen Polaris12-Verkäufe nicht kannibalisieren will, und es für Intel auch so reicht.

Der_Korken
2017-08-06, 18:39:10
Kann ich mir das so vorstellen dass die Speicherbandbreite immer mehr zur Geltung kommt, je mehr Videodaten anfallen? Also das beispielsweise Raven Ridge und RX 550 bei ähnlicher Rechenleistung (CUs, Takt) in einem Spiel bei 900p in niedrigen Details noch vergleichbar viele Bilder pro Sekunde haben, aber dann bei 1080p in mittleren Details die Raven Ridge APU mangels Speicherbandbreite gegenüber der RX 550 abfällt? Wäre ein solches Phänomen zu erwarten bzw wahrscheinlich?

Würde ich eher nicht erwarten. Wenn du die Auflösung erhöhst, werden CUs und der VRAM in ungefähr gleichem Maße mehr belastet. Es wird wohl vom getesteten Spiel bzw. dessen Engine abhängen, ob die Vega IGP schneller (CU-lastige Engine) oder langsamer (bandbreitenlastige Engine) als eine RX550 wird. Ein HBM-Stack würde diese Probleme natürlich auf einen Schlag lösen (und ich hab mich auch schon gefragt, ob eine CPU auch davon profitieren würde). Allerdings wird es durch den HBM und den zusätzlichen Interposer wohl noch zu teuer für die anvisierte Preisklasse der APUs.

Naitsabes
2017-08-06, 18:45:52
Allerdings wird es durch den HBM und den zusätzlichen Interposer wohl noch zu teuer für die anvisierte Preisklasse der APUs.

Die anvisierte Preisklasse würde aber deutlich nach oben Rücken, wenn die Performance so deutlich steigt. Und das würde sie mit einem HBM-Cache. Man braucht ja nur auf Intels eDRAM schauen, um zu sehen wie viel eine große Cachestufe mit hoher Datenrate bringen kann (sowohl CPU, aber vor allem GPU profitieren da ja enorm). Und dort sind es nur 64 MB bzw. 128 MB.
Selbst wenn die Latenzen zum HBM dann etwa auf dem Niveau des restlichen Arbeitsspeichers sind und die CPU daher eventuell ein wenig Leistung bei einem Miss verliert, wäre der Vorteil für die GPU immens.

Der_Korken
2017-08-06, 19:00:58
Die anvisierte Preisklasse würde aber deutlich nach oben Rücken, wenn die Performance so deutlich steigt. Und das würde sie mit einem HBM-Cache. Man braucht ja nur auf Intels eDRAM schauen, um zu sehen wie viel eine große Cachestufe mit hoher Datenrate bringen kann (sowohl CPU, aber vor allem GPU profitieren da ja enorm). Und dort sind es nur 64 MB bzw. 128 MB.
Selbst wenn die Latenzen zum HBM dann etwa auf dem Niveau des restlichen Arbeitsspeichers sind und die CPU daher eventuell ein wenig Leistung bei einem Miss verliert, wäre der Vorteil für die GPU immens.

Das mit der Preisklasse stimmt natürlich, aber ich kann nicht einschätzen, ob der Markt dafür groß genug ist. Die APUs ausschließlich mit HBM zu bringen, wird aber definitiv zu teuer, da müssen auch normale Varianten bei sein. Im Grunde genommen würde ein "halber" Stack mit 1GB und 100-120GB/s schon enorm viel bringen durch den HBCC. Sobald solche Lowcost-Varianten angeboten werden, wird sich HBM auch in günstigen Produkten verbreiten.

Naitsabes
2017-08-06, 19:18:28
Ja gut, da gebe ich dir natürlich recht.
Aber man müsste ja auch nicht jede APU so ausführen. Man könnte das ja so ähnlich machen wie Intel.
Also zunächst die ganz klassischen APUs und dann ein äquivalent zu den Iris GPUs. Also jeweils das Topmodell mit der vollen GPU einmal in 65W mit HBM und dann nochmal das gleiche Modell mit höherem Takt mit 95W mit HBM (vielleicht hier auch ein größerer HBM Cache als bei der 65W Variante).

Das würde ich persönlich jedenfalls sehr cool finden. Auch wenn ich bezweifel, dass da etwas in naher Zukunft auf uns zu kommt.

deekey777
2017-08-06, 19:22:10
Wenn die Grafikleistung einer APU nicht ausreicht, kann man immernoch eine dedizierte Grafikkarte einbauen, insbesondere von AMD selbst.

Der Anteil an Geräten, die Iris-Grafik verwenden, ist verschwindend gering, warum soll AMD da unnötig Resourcen dafür verschwenden? AMDs Hauptziel dürften mobile Geräte sein bis 1.000,00 EUR, insbesondere die ganzen 2in1-Geräte und nicht bloß solche Geräte wie mein HP 15. Dieser Zustand ist für AMD einfach Scheiße, https://www.notebookcheck.com/Ryzen-ist-grossartig-aber-warum-sind-die-meisten-AMD-Notebooks-so-unfassbar-schlecht.239982.0.html (NBC übertreibt es zwar etwas, aber das ist der gleiche Zustand wie nach dem Carrizo-Launch, http://www.anandtech.com/show/10000/who-controls-user-experience-amd-carrizo-thoroughly-tested

Sprich:
AMDs Ziel ist es, dass mobile RR-APUs in Geräten zu finden sind, die auf dem gleichen Verarbeitungsniveau/Ausstattungsniveau sind wie vergleichbare Intel-Geräte. Und das I-Tüpfelchen wird die 3D-Leistung sein, die weder von einer lahmen CPU noch von älteren Fertigungsprozess gebremst wird.

PS:
Mit den APUs werden auch 14-Zöller (und kleiner) mit genügend 3D-Leistung möglich. Viele wissen nicht, was schon Intels U-Skylakes/KBLs bringen können, das wird mit den RR-APUs ein wahres Fest für Spielchen zwischendurch.

robbitop
2017-08-06, 19:58:23
Der eDRAM hilft bei Intels GPUs enorm. Der CPU hilft er zB in Spielen auch enorm. Hier ist aber eher anzunehmen, dass der Großteil des Gewinns an der Latenz liegt und nicht an der (gar nicht so hohen) Bandbreite.
Ob HBM hier auch so gute Latenzen erreicht?

Der_Korken
2017-08-06, 20:59:47
Der eDRAM hilft bei Intels GPUs enorm. Der CPU hilft er zB in Spielen auch enorm. Hier ist aber eher anzunehmen, dass der Großteil des Gewinns an der Latenz liegt und nicht an der (gar nicht so hohen) Bandbreite.
Ob HBM hier auch so gute Latenzen erreicht?

Das ist eine gute Frage. Wie unterscheidet sich der eDRAM technisch von HBM? Letzterer ist ja auch nur DRAM mit mehreren Schichten, angebunden über eine Silizium-Verbindung per Interposer. Der eDRAM ist (zumindest wenn ich per Google nach Bildern suche) auch ein separater Die auf dem gleichen Package. Eventuell ist aber der HBCC mehr auf Durchsatz als auf gute Latenzen optimiert, was für CPUs weniger gut ist als für GPUs.

dargo
2017-08-07, 19:40:41
Es gibt keine Anhaltspunkte dafür, dass die APUs HBM als Puffer bekommen. Es gab vor weit über einem Jahr eine Spekulation, dass es eine APU mit mindestens 1024 SPs geben wird, die über HBM verfügen wird. Aber von dieser hört man nichts.
Wenn das der einzige Grund ist? :tongue: Von der anderen APU hört man auch erstmal nichts.

Wenn die Grafikleistung einer APU nicht ausreicht, kann man immernoch eine dedizierte Grafikkarte einbauen, insbesondere von AMD selbst.

Bei Notebooks auch?


Der Anteil an Geräten, die Iris-Grafik verwenden, ist verschwindend gering, warum soll AMD da unnötig Resourcen dafür verschwenden?
Ist die Frage ernst gemeint? Verdient AMD mehr Geld wenn die Leute bei Notebooks eine AMD APU mit ca. 2 TFLOPs kaufen oder wenn die Leute eine schwächere APU von AMD inkl. dGPU von Nvidia (zb. GTX1050(TI)) kaufen? Oder im schlimmsten Fall Intel CPU + dGPU von Nvidia? ;) Mit Intel ist das überhaupt nicht vergleichbar. Intel hat über der Iris auch nichts Schnelleres anzubieten.

dildo4u
2017-08-07, 20:13:28
2 Tflops machen kein Sinn AMD GPU's brauchen zu viel Bandbreite,die man zur Zeit nicht hat,selbst die alte PS4 hat deswegen ja GDDR5 bekommen.AMD muss in erster Line drauf achten das Ryzen APU's kein Watt mehr ziehen als deren Intel Gegner.Nur so und mit billig Preisen wird man OEM's zum Umschwenken bringen,den nästen Schritt kann man dann in 7nm machen.

deekey777
2017-08-07, 20:20:44
..Bei Notebooks auch?

Wo denn sonst?


Ist die Frage ernst gemeint? Verdient AMD mehr Geld wenn die Leute bei Notebooks eine AMD APU mit ca. 2 TFLOPs kaufen oder wenn die Leute eine schwächere APU von AMD inkl. dGPU von Nvidia (zb. GTX1050(TI)) kaufen? Oder im schlimmsten Fall Intel CPU + dGPU von Nvidia? ;)

Nur so eine Empfehlung:
Mach dir doch einen Überblick über Notebooks. :)

Überwiegender Teil auf dem mobilen Markt hat Skylakes/KBLs mit 2C/4T und Grafik wie HD520/620. Dann kommen gleich die HQs mit dedizierten Grafikkarten. Laptops mit Iris-Grafik (HD 540/550 bzw. 640/650) sind absolute Seltenheit, auch wenn es mal einen Aldi-Laptop damit gab. Sprich im Vergleich zu der Anzahl an Laptops mit HD 515/ 520 bzw. 615/620 ist der Anteil der Iris-Geräte sehr, sehr klein, auch wenn zu diesem MacBook Pro 13'', Surface Pro 4/5 mit i7, Surface Laptop und einige Dells gehören.

Der Grund dafür ist nicht nur, dass man lieber einen normalen Intel Zweikerner mit einer Grafikkbestie wie 940MX/1030 (oder eben M440 von AMD) holt (so viel schneller ist die Iris-Grafik mit 48 EUs nicht), sondern die 15W-Klasse der aktuelle Standard ist.

Und wenn es Intel nicht schafft, mit seinen i-Cores mit Iris-Grafik Fuß zu fassen (weil die Iris-Grafik einfach nichts bringt außer mehr Energieverbrauch), warum soll AMD überhaupt dies versuchen? Lieber bringt AMD für die 15W-Klasse eine RR-APU mit bis zu 4C/8T und 8 CUs und macht Intel so das Leben sehr schwer als irgendwelche exotischen RR-APUs mit HBM, die dann entweder erst gar nicht verbaut werden oder wenn doch, dann kaum anzutreffen sind. Selbst für eine RR-APU mit 4C/8T und bis zu 11 CUs der nächst höheren TDP-Klasse könnte es schwer werden, wenn potentielle Kunden so oder so eine dedizierte Grafikkarte wünschen (gibt es überhaupt Laptops mit Vierkern-HQs ohne eine dedizierte Grafikkarte?).

dargo
2017-08-07, 20:20:52
Dildo schon wieder. :facepalm: Was ist an 200GB/s mit einem HBM2 Stack bei 2 TFLOPs zu langsam?

@deekey777
Ich glaube wir reden aneinander vorbei. Wenn ich von einem HBM2 Stack spreche dann meine ich damit die größere APU für Gamer-Notebooks. Die kleinere APU soll ja nur einen DDR4 Controller haben und kann ohne den Kostentreiber HBM2 besser mit Intel und deinen genannten Beispielen konkurrieren.

PS: die Spekulationen gingen damals in Richtung APU mit DDR4 Controller @~170mm² und APU mit DDR4 und HBM2 Controller mit ~210mm².

deekey777
2017-08-07, 20:22:23
Nebenbei:
Gibt es schnelleren mobilen Speicher als 2400?

...
@deekey777
Ich glaube wir reden aneinander vorbei. Wenn ich von einem HBM2 Stack spreche dann meine ich damit die größere APU für Gamer-Notebooks. Die kleinere APU soll ja nur einen DDR4 Controller haben und kann ohne den Kostentreiber HBM2 besser mit Intel und deinen genannten Beispielen konkurrieren.

PS: die Spekulationen gingen damals in Richtung APU mit DDR4 Controller @~170mm² und APU mit DDR4 und HBM2 Controller mit ~210mm².

Wie viel von dieser spekulierten APU (oder der mit 1024 SPs und Quadchannel-DDR4) reines Wunschdenken war, wird sich herausstellen müssen. Aktuell findet sich eine solche Uber-APU nirgendwo. Muss ja nicht bedeutet, dass AMD in diese Richtung nicht geforscht hat (eine HPC-APU für sTR4).

Nur kann AMD dieses "Dilemma" ganz einfach lösen: mit einer APU und einer dedizierten Grafikkarte. Intel hat das erkannt, es gibt keinen Nachfolger für QC mit Iris 580 Grafik, weil die geringe Nachfrage nach solchen SoCs den (Entwicklungs-)Aufwand nicht rechtfertigt.


PS:
Ihr unterschätzt die Leistung der aktuellen BR-APUs, auch wenn sie von der schwachen CPU-Leistung und dem älteren Fertigungsprozeß gebremst werden. Sumpfeules Thread zeigt, wie sich die Leistung der APU verbessert, wenn die CPU-Module ihren Takt halten dürfen.

dargo
2017-08-07, 21:53:47
Quadchannel-DDR4 gabs auch als Gerücht? Das wäre dann aber wirklich kompletter Unfug.

Loeschzwerg
2017-08-08, 09:27:43
Nebenbei:
Gibt es schnelleren mobilen Speicher als 2400?


Bis 3000er. Habe z.B. zwei 2800er im Skull Canyon NUC sitzen.

robbitop
2017-08-08, 09:28:59
Bei RR wird es wirklich spannend zu sehen, ob man den DSBR in den Griff bekommt. Hier wird er schließlich besonders gebraucht.

Weiß jemand, ob die GPU (analog zu Intels Core Serie) auch Zugriff auf den L3 (also als LLC) hat?
Damit könnte man den Fragmentierungsgrad der Zugriffe auf den RAM ggf. etwas ausbessern.

Für mich auffällig ist, dass man trotz signifikantem Shrink nur 37,5% mehr Ausführungseinheiten investiert hat. Das impliziert, dass man sich des Bandbreitenbottlenecks bewußt ist und außerdem, dass besonders schnelle IGPs offenbar keinen großen Vorteil im Markt bringen.

Intels Iris Pro hat (nach meinem Empfinden) nicht besonders die Verkäufe angekurbelt. AMDs vergleichsweise gute IGPs auch nicht. Auch nicht im Mobilbereich.

Insofern habe ich das Gefühl, dass eine HBM APU ggf. gar keinen relevanten Markt finden könnte.

deekey777
2017-08-08, 09:46:59
Man darf nicht vergessen, dass die Leistung einer mobilen Uber-APU auf den Bildschirm gebracht werden muss. Es bringt dem spielenden Kunden nicht viel, wenn schon nach 5-10 Minuten die Leistung signifikant abfällt.


Nebenbei:
Es gibt immernoch diese Spekulation, dass Intel eine Radeon-GPU auf ein Package packt. Das wäre eine auch eine Lösung.

bun
2017-08-08, 11:23:06
Intels Iris Pro hat (nach meinem Empfinden) nicht besonders die Verkäufe angekurbelt. AMDs vergleichsweise gute IGPs auch nicht. Auch nicht im Mobilbereich.

Insofern habe ich das Gefühl, dass eine HBM APU ggf. gar keinen relevanten Markt finden könnte.

Weil 99% aller Laptopkäufer desinteressiert sind und schlecht informiert.


Nebenbei:
Es gibt immernoch diese Spekulation, dass Intel eine Radeon-GPU auf ein Package packt. Das wäre eine auch eine Lösung.

Hat AMD doch schon dementiert.

Brillus
2017-08-08, 13:01:11
Hat AMD doch schon dementiert.

Intel hats dementiert.

deekey777
2017-08-08, 13:09:08
Don't believe anything untill Intel denies.

;D

Loeschzwerg
2017-08-08, 13:43:24
Als Apple Lösung bleibt es trotzdem vorstellbar ^^

Sonst sehe ich es wie robbi, es dürfte derzeit schlichtweg keinen Markt für eine APU inkl. HBM im Mobile Segment geben. Der Schritt zu einer dedizierten Lösung ist gleich getan.

Kehaar
2017-08-08, 14:29:31
Intels Iris Pro hat (nach meinem Empfinden) nicht besonders die Verkäufe angekurbelt. AMDs vergleichsweise gute IGPs auch nicht. Auch nicht im Mobilbereich.
Intel musste nicht seine Iris Pro "billig verschleudern", da die Unmengen an Notebooks mit Intel-CPU und einfacher IGP auch so gekauft wurden. Auch bei den Notebooks fehlte ja einfach der Wettbewerb. Und wenn es mal von AMD was Interessantes gab, dann haben letztlich die Notebookhersteller es noch versemmelt.

Insofern habe ich das Gefühl, dass eine HBM APU ggf. gar keinen relevanten Markt finden könnte.
Das sehe ich anders.

r-or
2017-08-08, 14:49:08
Weil 99% aller Laptopkäufer desinteressiert sind und schlecht informiert.
Oder, wahrscheinlicher, der absurde Aufpreis sind sie paar extra FPS nicht wert. Gerade wenn man seinen dünnen 13 zoll Laptop nicht zum zocken benutzt, wie jeder normale Mensch.

fondness
2017-08-08, 14:53:08
Wer spielt schon auf einem Laptop? An AMDs Stelle hätte ich die APU gar nicht vergrößert, zumindest solange nicht, solange sich die GPU nicht als Coprozessor oder dergleichen durchsetzt. Aktuell ist das unnötiger Ballast.

deekey777
2017-08-08, 14:57:32
Oder, wahrscheinlicher, der absurde Aufpreis sind sie paar extra FPS nicht wert. Gerade wenn man seinen dünnen 13 zoll Laptop nicht zum zocken benutzt, wie jeder normale Mensch.
Verstehe ich das richtig:
Leute, die es trotzdem tun, sind abnormal?

Grendizer
2017-08-08, 14:58:26
Wer spielt schon auf einem Laptop? An AMDs Stelle hätte ich die APU gar nicht vergrößert, zumindest solange nicht, solange sich die GPU nicht als Coprozessor oder dergleichen durchsetzt. Aktuell ist das unnötiger Ballast.

Wenn ich mal wieder geschäftlich unterwegs bin und mich in Hotelzimmer langweile, würde ich gerne mal ein Spielchen machen.

fondness
2017-08-08, 15:01:36
Wenn ich mal wieder geschäftlich unterwegs bin und mich in Hotelzimmer langweile, würde ich gerne mal ein Spielchen machen.

Dann kauft man sich eben einen Lappi mit dGPU. Für die paar Leute rentiert sich einfach keine dicke iGPU IMO.

Kehaar
2017-08-08, 15:06:08
Wer spielt schon auf einem Laptop?
Der Wandel ist einfach da. Hardcore-Spiele-Desktop-PC werden in meinem Umfeld immer weniger. Wenn man spielen will, dann reicht vielen ne Konsole. Und ein (zusätzlicher) "richtiger" PC soll auch keine große Kiste mehr sein ... ein schickes Notebook für "alles" reicht. Erlebte Erfahrungen ...

deekey777
2017-08-08, 15:06:25
Dann kauft man sich eben einen Lappi mit dGPU. Für die paar Leute rentiert sich einfach keine dicke iGPU IMO.

Wer spielt schon auf einem Laptop?

Auch ich spiele ab und zu auf meinem Laptop mit A10-9600P.

Und jetzt?

y33H@
2017-08-08, 15:08:23
Und ich auf meinem Skylake-U ... gerade auf längeren Strecken, zB nach SFO, zocke ich gerne Defense Grid oder Titan Quest.

fondness
2017-08-08, 15:09:13
Auch ich spiele ab und zu auf meinem Laptop mit A10-9600P.

Und jetzt?

Die Frage habe ich bereits beantwortet und du hast sie sogar zitiert:^^

Dann kauft man sich eben einen Lappi mit dGPU. Für die paar Leute rentiert sich einfach keine dicke iGPU IMO.

deekey777
2017-08-08, 15:12:28
Die Frage habe ich bereits beantwortet und du hast sie sogar zitiert:^^
Du hast die Frage nicht beantwortet. Du bist in die Diskussion reingepatzt und meinst, dass User nur dann spielen dürfen, wenn ihr Laptop eine dedizierte GPU haben. Bestimmt eine 920MX oder M330.

fondness
2017-08-08, 15:15:58
Du hast die Frage nicht beantwortet. Du bist in die Diskussion reingepatzt und meinst, dass User nur dann spielen dürfen, wenn ihr Laptop eine dedizierte GPU haben. Bestimmt eine 920MX oder M330.

Das stimmt nicht, das ist bestenfalls deine falsche Interpretation. Ich habe nur gesagt, was ich an AMDs Stelle tun würde, nämlich die iGPU nicht weiter aufblasen, weil sich das nicht rentiert. Das Wort "dürften" habe ich nicht mal benutzt.

LadyWhirlwind
2017-08-08, 15:15:59
Stärkere APUs sind eventuell für die OEMs für günstigere All in Ones und Desktop-PCs interessant. Einfach weil das möglicherweise die Logistik und die Lagerkosten senkt.

Kehaar
2017-08-08, 15:18:59
Dann kauft man sich eben einen Lappi mit dGPU. Für die paar Leute rentiert sich einfach keine dicke iGPU IMO.
Eine Intel-CPU mit "Wald- und Wiesen-IPG" reicht also für die Massen? Also kann AMD die (APU-)Entwicklung einstellen? Verzichten wir auf Wettbewerb und technischen Fortschritt?

Ich halte eine APU mit starker IPG und HBM usw. immer noch für sinnvoll und warte gespannt auf Raven Ridge.

fondness
2017-08-08, 15:21:26
Eine Intel-CPU mit "Wald- und Wiesen-IPG" reicht also für die Massen? Also kann AMD die (APU-)Entwicklung einstellen? Verzichten wir auf Wettbewerb und technischen Fortschritt?

Ich halte eine APU mit starker IPG und HBM usw. immer noch für sinnvoll.

Ist es wirklich so schwer, einfach das zu lesen, was auch da steht? Keine einzige deiner Unterstellungen habe ich auch nur ansatzweise so gesagt.

deekey777
2017-08-08, 15:26:40
Und ich auf meinem Skylake-U ... gerade auf längeren Strecken, zB nach SFO, zocke ich gerne Defense Grid oder Titan Quest.
Mehr schaffst du auch nicht. ;D

Nur sehr wenige wissen, zu was aktuelle APUs, aber auch Intels U-Serie fähig sind. Auch kommt keiner auf die Idee, dass man zum Zocken einfach die Einstellungen reduziert und je nach Spiel dies ausreicht.

Eine RR-APU mit 4C/8 und 8 CUs und erst recht mit 11 CUs bei entsprechender Kühlung/TDP-Spielraum wird den einen oder anderen überraschen. Würde mich nicht wundern, dass die U-Serie mit Iris Graphics nicht mithalten können wird (natürlich kommt es auf die TDP und die Kühlung an).

Die Nachfrage nach mehr Grafikleistung wird man eben mit dedizierten Grafikkarten decken können, dafür braucht man keine Uber-APU.

Kehaar
2017-08-08, 15:27:59
Ist es wirklich so schwer, einfach das zu lesen, was auch da steht? Keine einzige deiner Unterstellungen habe ich auch nur ansatzweise so gesagt.
Aber für mich deutlich genug angedeutet :wink: . Wenn AMD den CPU-Teil auf ZEN aufrüstet, dann ist genügend CPU-Power vorhanden. Um sich weiter von Intel abzugrenzen, halte ich den weiteren Ausbau des Grafikteils für wichtig.

deekey777
2017-08-08, 15:32:05
Ist es wirklich so schwer, einfach das zu lesen, was auch da steht? Keine einzige deiner Unterstellungen habe ich auch nur ansatzweise so gesagt.
Es ist einfach ärgerlich, wenn man eine Diskussion führt und zwischen verschiedenen Möglichkeiten differenziert und dann jemand drauf los postet.

fondness
2017-08-08, 15:36:09
Es ist einfach ärgerlich, wenn man eine Diskussion führt und zwischen verschiedenen Möglichkeiten differenziert und dann jemand drauf los postet.

In einem öffentlichen Forum ist das nunmal üblich. Wenn dich das stört, solltest du eine Diskussion bei PM führen. :)

grauenvoll
2017-08-08, 16:22:22
Eine RR-APU mit 4C/8 und 8 CUs und erst recht mit 11 CUs bei entsprechender Kühlung/TDP-Spielraum wird den einen oder anderen überraschen. Würde mich nicht wundern, dass die U-Serie mit Iris Graphics nicht mithalten können wird (natürlich kommt es auf die TDP und die Kühlung an).

Die Nachfrage nach mehr Grafikleistung wird man eben mit dedizierten Grafikkarten decken können, dafür braucht man keine Uber-APU.

Wie wichtig nun die GPU-Leistung einer iGPU ist muss jeder für sich beurteilen. Auf jeden Fall konnte AMDs iGPU mit ausgereiften Treibern punkten. Die Kollegen mit ihren Intel-Notebooks hatten zwar einen wahnsinns IPC, aber dafür schon mal einen schwarzen Bildschirm wenn sie Ihre Präsi auf einem Beamer machen wollten. Ausserdem hat AMD mit seiner einheitlichen Treiberstruktur eine Treiberuntertützung über mehrere Jahre sicherstellen können. Davon kann man bei Intel nur träumen. Die Geräte waren oft nur Einwegware, nach einem Betriebssystemupgrade hakte das Gerät an allen Ecken und Enden(meine Erfahrung).

Sollte AMD mit RavenBridge ein energieeffizientes Desgin hinlegen, kann Intel einpacken. AMDs größtes Ass im Ärmel!

Kriton
2017-08-08, 16:34:23
Verstehe ich das richtig:
Leute, die es trotzdem tun, sind abnormal?

Das sind Leute mit einem IQ von 200 auch...:biggrin:

Wie wichtig nun die GPU-Leistung einer iGPU ist muss jeder für sich beurteilen. Auf jeden Fall konnte AMDs iGPU mit ausgereiften Treibern punkten. Die Kollegen mit ihren Intel-Notebooks hatten zwar einen wahnsinns IPC, aber dafür schon mal einen schwarzen Bildschirm wenn sie Ihre Präsi auf einem Beamer machen wollten. Ausserdem hat AMD mit seiner einheitlichen Treiberstruktur eine Treiberuntertützung über mehrere Jahre sicherstellen können. Davon kann man bei Intel nur träumen. Die Geräte waren oft nur Einwegware, nach einem Betriebssystemupgrade hakte das Gerät an allen Ecken und Enden(meine Erfahrung).

Sollte AMD mit RavenBridge ein energieeffizientes Desgin hinlegen, kann Intel einpacken. AMDs größtes Ass im Ärmel!

Man darf den Wert der Marke nicht unterschätzen. Ich arbeite in einem Bereich, wo ich das bezüglich Intel durchaus sehe, obgleich man es besser wissen müsste.

Loeschzwerg
2017-08-08, 17:43:24
Auf jeden Fall konnte AMDs iGPU mit ausgereiften Treibern punkten. Die Kollegen mit ihren Intel-Notebooks hatten zwar einen wahnsinns IPC, aber dafür schon mal einen schwarzen Bildschirm wenn sie Ihre Präsi auf einem Beamer machen wollten. Ausserdem hat AMD mit seiner einheitlichen Treiberstruktur eine Treiberuntertützung über mehrere Jahre sicherstellen können. Davon kann man bei Intel nur träumen. Die Geräte waren oft nur Einwegware, nach einem Betriebssystemupgrade hakte das Gerät an allen Ecken und Enden(meine Erfahrung).


:uponder: Schwarzer Bildschirm bei einer Präsentation via Beamer?! Seit ca. "Sandy Bridge" habe ich solche Probleme nicht mehr erlebt in Bezug auf Intel IGP und die Notebooks von meinen Arbeitgeber setzen hier ausschließlich auf den Business Bereich.

Wo es immer mal wieder hakt ist die Umschaltung zwischen IGP und dGPU.

Ansonsten spricht der Erfahrungsbericht zu BalckArchons Carrizo Notebook nicht gerade für den Support durch AMD.


Eine RR-APU mit 4C/8 und 8 CUs und erst recht mit 11 CUs bei entsprechender Kühlung/TDP-Spielraum wird den einen oder anderen überraschen. Würde mich nicht wundern, dass die U-Serie mit Iris Graphics nicht mithalten können wird (natürlich kommt es auf die TDP und die Kühlung an).


Wenn die RR APU das nicht könnte, dann weiß ich auch nicht :D Je nach Spiel hat da Iris Gen9 jetzt schon keine Chance, weil schlichtweg AMD die besseren Treiber für Games mitbringt. Bei Intel dauert die Optimierung teilweise Ewigkeiten.

deekey777
2017-08-08, 18:36:25
Man muss aber realistisch sein: Der mobile Markt ist der einzige, der wirklich wächst, und Intel ist ein mächtiger Gegner. ;(

Loeschzwerg
2017-08-08, 19:00:55
Intel mit CFL Quad @ 15Watt TDP dürfte ein starker Gegner werden, aber auch die OEMs spielen eine gewichtige Rolle. Es müssen einfach Notebooks mit guter Qualität auf den Markt kommen, aber das war bis jetzt überwiegend nur billiges Zeug (mit zwei/drei Ausnahmen).

deekey777
2017-08-08, 19:17:33
Intel mit CFL Quad @ 15Watt TDP dürfte ein starker Gegner werden, aber auch die OEMs spielen eine gewichtige Rolle. Es müssen einfach Notebooks mit guter Qualität auf den Markt kommen, aber das war bis jetzt überwiegend nur billiges Zeug (mit zwei/drei Ausnahmen).

...


Der fällt zwar in die 8xxx Reihe, ist aber nicht CFL sondern KBL. Wird also kaum etwas anderes sein als 4C+GT2. Steht schon recht lange auf der Roadmap:
https://www.notebookcheck.net/Intel-Kaby-Lake-Quad-Core-ULV-Processors-in-2017.172188.0.html

Dürfte etwas unübersichtlich werden denn das kommende mobile Portfolio wird sich aus 10nm CNL (2C+GT2), 14nm KBL (4C+GT2) und 14nm CFL (2C - 6C, GT2 - GT3e) zusammen setzen.

Intel bringt mindestens einen Quadcore-U (https://www.computerbase.de/2017-05/intel-core-8000-kaby-lake-r-cpu/), irgendwo hier sind seine Werte zu finden (mit angeblicher UHD Graphics 620 (https://gfxbench.com/device.jsp?benchmark=gfx40&os=Windows&api=gl&D=Intel%28R%29+Core%28TM%29+i5-8250U+CPU+with+UHD+Graphics+620&testgroup=info)). Anscheinend KBL-Refresh und kein CL.

Kriton
2017-08-08, 20:17:12
Intel mit CFL Quad @ 15Watt TDP dürfte ein starker Gegner werden, aber auch die OEMs spielen eine gewichtige Rolle. Es müssen einfach Notebooks mit guter Qualität auf den Markt kommen, aber das war bis jetzt überwiegend nur billiges Zeug (mit zwei/drei Ausnahmen).

Auch wenn Du in dem Bereich nicht tätig bist: Auch ihr seid OEM. Was werdet ihr tun?

Loeschzwerg
2017-08-08, 20:37:45
Aktuell sind mir keine Pläne hinsichtlich neuer AMD Produkte bekannt.

deekey777
2017-08-08, 22:49:25
...

Wenn die RR APU das nicht könnte, dann weiß ich auch nicht :D Je nach Spiel hat da Iris Gen9 jetzt schon keine Chance, weil schlichtweg AMD die besseren Treiber für Games mitbringt. Bei Intel dauert die Optimierung teilweise Ewigkeiten.
Auch wenn man nicht auf die RR-APUs direkt schließen sollte, zeigen seine Videos, wohin die Reise geht: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=578743

Und wenn noch die CPU nicht gedrosselt wird, geht die A12-9800 wirklich ab (ich will gar nicht wissen, was das Ding bei ihm dann verbraucht).

Pirx
2017-08-09, 07:32:05
Es stimmt aber schon, daß ein Großteil der Mobil- und auch Desktopkunden (Bürorechner) einen leistungsstarken IGP-Teil in der APU gar nicht braucht und mit einem schlanken (aber natürlich mit allen Features und einem Mindestmaß an Performance) besser dran wäre, weil das dann günstiger herzustellen und damit zu verkaufen wäre (wenn die Stückzahlen stimmen natürlich) und der CPU-Teil mehr "Luft" hätte. Wie es bspw. Intel vorgemacht hatte mit den Sandy-Bridge i3s usw.



edit:
AMD Ryzen 7 2700U
https://gfxbench.com/device.jsp?D=AMD+Ryzen+7+2700U+with+Radeon+Vega+Graphics&os=Windows&api=gl&benchmark=gfx40
alt?

deekey777
2017-08-09, 12:50:40
edit:
AMD Ryzen 7 2700U
https://gfxbench.com/device.jsp?D=AMD+Ryzen+7+2700U+with+Radeon+Vega+Graphics&os=Windows&api=gl&benchmark=gfx40
alt?
Für mich unalt.

Hat jemand Vergleichswerte eines A12-9700P/A12-9800P(B)? Ich such mal.

https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=53156431&os1=Windows&api1=gl&hwtype1=iGPU&hwname1=AMD+Radeon%28TM%29+Vega+10+Mobile+Graphics&did2=35640239&os2=Windows&api2=gl&hwtype2=iGPU&hwname2=AMD+Radeon+R5+Graphics

(Ein A10-9600P ist nur ein langsamer taktender A12-9700P)

Und hier ein Vergleich mit dem A12-9800E, also 4+8 und 35W:
https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=53156431&os1=Windows&api1=gl&hwtype1=iGPU&hwname1=AMD+Radeon%28TM%29+Vega+10+Mobile+Graphics&D2=AMD+A12-9800E+RADEON+R7%2C+12+COMPUTE+CORES+4C%2B8G

Pirx
2017-08-09, 12:59:27
vs. i7-4750HQ

https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=53156431&os1=Windows&api1=gl&hwtype1=iGPU&hwname1=AMD+Radeon%28TM%29+Vega+10+Mobile+Graphics&D2=Intel%28R%29+Core%28TM%29+i7-4750HQ+CPU+with+Iris%28TM%29+Pro+Graphics+5200

nunja, da fehlen noch zu viele Infos

deekey777
2017-08-09, 13:14:16
vs. i7-4750HQ

https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=53156431&os1=Windows&api1=gl&hwtype1=iGPU&hwname1=AMD+Radeon%28TM%29+Vega+10+Mobile+Graphics&D2=Intel%28R%29+Core%28TM%29+i7-4750HQ+CPU+with+Iris%28TM%29+Pro+Graphics+5200

nunja, da fehlen noch zu viele Infos
https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=53156431&os1=Windows&api1=gl&hwtype1=iGPU&hwname1=AMD+Radeon%28TM%29+Vega+10+Mobile+Graphics&D2=Intel%28R%29+Core%28TM%29+i5-7260U+CPU+with+Iris%28TM%29+Plus+Graphics+640

Gegen einen i5-7260U mit Iris.

Irgendwie sind Intel-Ergebnisse selbst mit einer HD 620 zu gut.

---------------

Die gute alte Meldung über RR mit HBM, http://wccftech.com/amd-raven-ridge-apu-14nm-glofo-amkor/

deekey777
2017-08-13, 15:52:08
https://smallformfactor.net/news/sffn-techxpo-new-zealand

AMD’s Raven Ridge is very close, as is Ryzen mobile


Bin auf die IFA gespannt.

cat
2017-08-18, 20:26:44
@deekey777
Zitat:
Spoiler zu: Allgemeine Wissenschaftliche-Leistung : 27.4GFLOPS
SiSoftware Sandra

Benchmarkresultate
Allgemeine Wissenschaftliche-Leistung : 27.4GFLOPS
Allgemeine Matrix-Multiplikation (GEMM) : 79.23GFLOPS
Fast Fourier Transformation (FFT) : 9.48GFLOPS
N-Körper-Simulation : 119.15GFLOPS
Typ : Fließkomma (Hohe Genauigkeit - FP64)
Schnittstelle : OpenCL
Ergebnisse : Höhere Werte sind besser.
Base 10 Ergebnis Multiplikatoren : 1GOPS = 1000MOPS, 1MOPS = 1000kOPS, 1kOPS = 1000OPS, usw.


Ich tippe mal auf 1:4 FP64-Leistung.
_______________________________________

Ich tippe auf 1:16

1:16 FP64-Leistung bei diesen 119.15GFLOPS

119,15GFLOPS x16= 1906,4GFLOPS (Single Percision FP32)
11CUs vorausgesetzt = 704 Cores
1906,4GFLOPS :2= 953,2
853,2:704= 1,354 GHz (müssten also währen dieses Tests gehalten worden sein)

also ich halte 11CU bei 1,354 GHz in einer Vega-Zen-APU für gut möglich .... TDP ?

basix
2017-08-18, 23:48:10
also ich halte 11CU bei 1,354 GHz in einer Vega-Zen-APU für gut möglich .... TDP ?

Ein A12-9800 taktet die GPU auf 1108 MHz bei 65W und ein A12-9800E die GPU auf 900 MHz.

Ich tippe mal auf 65W bei den 1.35 GHz. Sind doch immerhin +2/3 Rohleistung.

deekey777
2017-08-19, 10:48:34
@deekey777
Zitat:
Spoiler zu: Allgemeine Wissenschaftliche-Leistung : 27.4GFLOPS
SiSoftware Sandra

Benchmarkresultate
Allgemeine Wissenschaftliche-Leistung : 27.4GFLOPS
Allgemeine Matrix-Multiplikation (GEMM) : 79.23GFLOPS
Fast Fourier Transformation (FFT) : 9.48GFLOPS
N-Körper-Simulation : 119.15GFLOPS
Typ : Fließkomma (Hohe Genauigkeit - FP64)
Schnittstelle : OpenCL
Ergebnisse : Höhere Werte sind besser.
Base 10 Ergebnis Multiplikatoren : 1GOPS = 1000MOPS, 1MOPS = 1000kOPS, 1kOPS = 1000OPS, usw.


Ich tippe mal auf 1:4 FP64-Leistung.
_______________________________________

Ich tippe auf 1:16

1:16 FP64-Leistung bei diesen 119.15GFLOPS

119,15GFLOPS x16= 1906,4GFLOPS (Single Percision FP32)
11CUs vorausgesetzt = 704 Cores
1906,4GFLOPS :2= 953,2
853,2:704= 1,354 GHz (müssten also währen dieses Tests gehalten worden sein)

also ich halte 11CU bei 1,354 GHz in einer Vega-Zen-APU für gut möglich .... TDP ?
Fast doppelte Anzahl der Einheiten, aber wohl Halbierung oder auch Viertelung der Fähigkeiten.
Das sind RR-Werte:
GEMM (General Matrix Multiply)
75.55GFLOPS
FFT (Fast Fourier Transform)
6.20GFLOPS
N-Body (N Body Simulation)
67.88GFLOPS
http://ranker.sisoftware.net/show_run.php?q=c2ffc8f8debfdee3d0e2d2e6c0b28fbf99fc99a494b2c1fcc4&l=en

Meine Werte sind die einer A10-9600P-APU, hier ist auch die TDP im Spiel, die den Takt bestimmt.
Die Ergebnisse sind sehr schwankend, um eine Anwort zu geben.

mboeller
2017-08-23, 16:52:25
gibt es eigentlich irgendwelche Infos ob RR auch ein off-chip Infinity Fabric hat wie Ryzen?

Wenn RR so wie BR 1:2 DP hätte und man bis zu 4 in einem MCM einsetzen könnte wäre das ein HPC "Monster" ... wäre für die Konkurrenz bestimmt eine nette Überrachung.

deekey777
2017-08-24, 00:11:16
gibt es eigentlich irgendwelche Infos ob RR auch ein off-chip Infinity Fabric hat wie Ryzen?

Wenn RR so wie BR 1:2 DP hätte und man bis zu 4 in einem MCM einsetzen könnte wäre das ein HPC "Monster" ... wäre für die Konkurrenz bestimmt eine nette Überrachung.

Ich befürchte, bald kommt einer und fragt, was das für eine Office-APU bringen soll.

https://videocardz.com/newz/amd-radeon-vega-8-and-vega-10-mobile-spotted

So ein Unsinn. Beide APUs (2500U und 2700U) haben 11 GCN CUs (in der Tabelle steht CU für Compute Unit nach der Definition von OpenCL), man muss somit das richtige Untermenü öffnen (hier gfx901), darin steht bei beiden 11 CUs (GPU).
https://gfxbench.com/device.jsp?benchmark=gfx40&os=Windows&api=gl&D=AMD+Ryzen+5+2500U+with+Radeon+Vega+Graphics&testgroup=info
https://gfxbench.com/device.jsp?benchmark=gfx40&os=Windows&api=gl&D=AMD+Ryzen+7+2700U+with+Radeon+Vega+Graphics&testgroup=info

Auch den Takt findet man (2000 bzw. 2200 MHz und 300 MHz, wobei der letzte hoffentlich der "Ruhetakt" ist).

Anders gesagt:
2500U und 2700U kommen beide mit 4C/8T und 11 CUs und unterscheiden sich im Takt.

Eldoran
2017-08-25, 20:54:20
gibt es eigentlich irgendwelche Infos ob RR auch ein off-chip Infinity Fabric hat wie Ryzen?

Wenn RR so wie BR 1:2 DP hätte und man bis zu 4 in einem MCM einsetzen könnte wäre das ein HPC "Monster" ... wäre für die Konkurrenz bestimmt eine nette Überrachung.
Denkbar wäre es, allerdings würde es mich wundern. Wenn man sich das Zeppelin die so anschaut, so ist dort mehr als 50% nicht-CCX, also ein CCX sind weniger als 25% der Gesamtfläche. Es ist also anzunehmen, dass alle IO Funktionen, die nicht im AM4 Socket genutzt werden gegenüber Summit Ridge eingespart wurden. Etwas Unsicher bin ich mir noch bezüglich der PCIe Pins, die könnten wie bei Summit Ridge auch IF tauglich sein. Die Ports für das MCM bezweifle ich aber.
Grundsätzlich dürfte auch die Nachfrage fehlen. Derartige Ideen wurden auch seit den ersten APUs propagiert, es haben sich meines Wissens die APUs aber beim HPC nicht durchgesetzt. Bei welchen Aufgaben wäre ein TR + Vega nicht zumindest gleichwertig?
Oder alternativ - ein Cluster von RR Rechnern?

basix
2017-08-25, 21:53:13
Denkbar wäre es, allerdings würde es mich wundern. Wenn man sich das Zeppelin die so anschaut, so ist dort mehr als 50% nicht-CCX, also ein CCX sind weniger als 25% der Gesamtfläche. Es ist also anzunehmen, dass alle IO Funktionen, die nicht im AM4 Socket genutzt werden gegenüber Summit Ridge eingespart wurden. Etwas Unsicher bin ich mir noch bezüglich der PCIe Pins, die könnten wie bei Summit Ridge auch IF tauglich sein. Die Ports für das MCM bezweifle ich aber.
Grundsätzlich dürfte auch die Nachfrage fehlen. Derartige Ideen wurden auch seit den ersten APUs propagiert, es haben sich meines Wissens die APUs aber beim HPC nicht durchgesetzt. Bei welchen Aufgaben wäre ein TR + Vega nicht zumindest gleichwertig?
Oder alternativ - ein Cluster von RR Rechnern?

1x CCX = 44mm2; Summit Ridge = 213mm2 ;)

Wo sich eine HPC APU lohnen würde? Bei stark gemischtem Workload inkl. viel Kommunikation zwischen CPU und GPU. Kommunikation auf einem Die ist viel energieeffizienter als über PCIe oder sonst was. Heterogeneous Computing halt, CPUs sind besser für serielle Workloads usw.

Heutzutage hat man aber die Workloads aus sinnvollen Gründen aufgeteilt was Parallelität anbelangt. Ob man also wirklich so schnell Use Cases hat wo man mit wenig Aufwand einiges schneller ist, ist wohl das grösste Problem.

Skysnake
2017-08-26, 07:04:16
Naja, man könnte ich mit openmp incrementell die Applikationen portieren. Muss man halt am Anfang mehr nodes verwenden um in Zeitspanne x das Ergebnis zu bekommen.

Eigentlich total unverständlich das AMD diese Chance bis heute nicht genutzt hat. Die könnten auch heute noch der gesamten Konkurrenz die Beine lang ziehen.

Sie müssten halt nur mal Hardware dafür bauen, also aufblasen und Fortran etc Support bringen

mboeller
2017-08-26, 13:47:40
Bei welchen Aufgaben wäre ein TR + Vega nicht zumindest gleichwertig?


Ein 4 Socket RR HPC System hätte sehr viel Speicher im direkten Zugriff. Wenn die Einträge bei Heise stimmen kann ein Epyc bis zu 2TB an Hauptspeicher haben (pro Sockel). Ein RR HPC System könnte dann das gleiche ermöglichen.

Die DP Leistung wäre mit 3-6 TFlops (1 Sockel, 200w oder 2 Sockel, 400w) auch nicht so schlecht, nur die SP-Leistung wäre mit 6-12 TFlops nicht so großartig.

Der Vorteil wäre wahrscheinlich hauptsächlich der große Hauptspeicher. Wenn ich alte Präsentationen und PDFs noch richtig im Kopf habe ist der kleine Speicher bei GPUs und das dadurch notwendige hin-und-her kopieren oft dafür verantwortlich dass nur ein (kleiner) Teil der max. möglichen Performance auch wirklich erreicht wird. HPC Anwendungen sind ja oft Anwendungen, die mit sehr großen Datensätzen arbeiten.

https://www.heise.de/preisvergleich/amd-epyc-7351p-a1643114.html

Eldoran
2017-08-26, 20:10:23
Der Vorteil wäre wahrscheinlich hauptsächlich der große Hauptspeicher. Wenn ich alte Präsentationen und PDFs noch richtig im Kopf habe ist der kleine Speicher bei GPUs und das dadurch notwendige hin-und-her kopieren oft dafür verantwortlich dass nur ein (kleiner) Teil der max. möglichen Performance auch wirklich erreicht wird. HPC Anwendungen sind ja oft Anwendungen, die mit sehr großen Datensätzen arbeiten.

Nur sollte da nicht Vega mit dem HBCC ähnliche Ergebnisse liefern?
Es wäre in dem Fall zwar viel Speicher, nur weder mit sonderlich viel Bandbreite, noch sonderlich Latenzarm und falls Vega und Ryzen/Epyc auch per IF beim PCIe Slot kommunizieren können, sollte das noch vergleichbarer werden.
Also im Endeffekt müsste das ganze wohl sehr kurze Anteile auf der GPU haben, zwar viel RAM brauchen, aber trotzdem i.d.R. in den lokalen NUMA Knoten passen und eher an der Speicherbandbreite, wie an der reinen GPU Leistung hängen, aber wiederum nicht so gut zu klassischen SIMD (SSE/AVX) passen. Allerdings bei wirklich SSE/AVX lastigem Code geht Ryzen teilweise die Speicherbandbreite aus.

danarcho
2017-08-26, 22:47:50
In der Regel gehen Algorithmen, die sich gut auf SIMD parallelisieren lassen, auch gut auf einer GPU. APUs haben den Nachteil, dass die Rechenkapazität nicht so riesig ist, aber wie Eldoran sagt: Dinge, die nur kurze Verweilzeit auf der GPU haben, sind ziemlich perfekt geeignet, und das sind normalerweise Sachen, die sonst auf den SIMD Einheiten ausgeführt werden. Mit HSA hat AMD versucht, die Latenz, die bei dGPUs sonst sehr hoch ist, zu drücken. Leider wird das anscheinend nicht so angenommen, wie das Potential eigentlich verspricht. Dank cache coherence, uniform memory access, preemption, device side enqueuing usw. ist HSA eigentlich extrem geil für alles, was gemischt skalaren und parallelen Code enthält. Ein Beispiel wären Videodecoder.

Naja, man könnte ich mit openmp incrementell die Applikationen portieren. Muss man halt am Anfang mehr loses verwenden um in Zeitspanne x das Ergebnis zu bekommen.

Eigentlich total unverständlich das AMD diese Chance bis heute nicht genutzt hat. Die könnten auch heute noch der gesamten Konkurrenz die Beine lang ziehen.

Sie müssten halt nur mal Hardware dafür bauen, also aufblasen und Fortran etc Support bringen

Ja, leider gibt es kein OpenMP back-end für HSA (das im GCC, sofern es noch funktioniert, verwendet HSAIL und das wurde bei ROCm deprecated).
Die Hardware ist lange vorhanden: Bristol Ridge ist full HSA compliant, Mali G-71 von der Hardware wohl auch, Qualcomms neue Adrenos wahrscheinlich auch.
Aber ohne Runtime kann man halt nichts damit anfangen. Es wird ja nicht mal OpenCL 2.1 unterstützt.

Skysnake
2017-08-27, 01:04:46
Ja, das ist total unverständlich.

Wenn AMD mit openmp auf c/c++ und Fortran klar kommen würde, dann könnten die um die Konkurrenz Kreise drehen.

Denn time to solution ist sehr wichtig. Nur wenige Leute verwenden die großen Kisten wirklich zu einem großen Anteil. Man geht halt soweit wie die Applikation skaliert beim strong scaling. Denn oft will man einfach nicht Tage, Wochen oder gar länger auf die Ergebnisse warten

Aber genau das Rennen dedizierte GPUs in prinzipielle Probleme, da.man relativ viel Arbeit pro GPU haben muss, damit man d3n ganzen overhead amortisieren kann....

Eldoran
2017-08-27, 12:22:09
Nur mir ist nicht so recht klar, wo eben ein hypothetischer RR-TR oder RR-Epyc die den ganzen Aufwand lohnt - das ist ja Ballast, der auf jedem Die mitgeschleppt werden muss und auch extra produziert, validiert und vertrieben werden muss.
Der Markt sieht für mich eben weitgehend abgegrast aus - im einfachen Bereich ist eben der bekannte RR. Darüber liegen TR/Epyc mit SIMD, sowie eben SSG und ggf. IF optimierte Ryzen/TR/Epyc + Vega.
Ein RR-TR wäre eben so ein Nischenprodukt, da die dGPU ja außerhalb von HPC praktisch nutzlos wäre. Und nur eben weil es HSA/dGPU ist, ist es nicht magisch schneller. Schon mit klassischen SIMD auf allen SMT Threads ist Ryzen Bandbreitenbeschränkt - wenn man da nicht explizite Vorteile bei den Registern/Cache in der dGPU oder den möglichen Rechenoperationen (also effektiv weniger Bandbreite / Op) hat, wird es kaum mehr Performance liefern. Die HSA Variante ist allerdings möglicherweise energieeffizienter.
Den Gerüchten nach gab es ja auch definitiv Planungen von großen HPC APUs, die Nachfrage war vermutlich nur nicht da. Auf mich wirkt es eher so, als ob jetzt eben der Plan auf Optimierung von CPU + GPU Kombinationen geht - Vega hat ja einen Haufen Transistoren in dem Bereich investiert. In ein paar Jahren, wenn die Anwendungsgebiete bzw. Anfragen der Big Player da sind, kann man ja auch große semi-custom APUs nachschieben.

BoMbY
2017-08-27, 13:07:01
Es ging um einen Exascale-Prozessor. Und die Nachfrage ist da, daher gibt es das Projekt überhaupt:

Executive Order -- Creating a National Strategic Computing Initiative (https://obamawhitehouse.archives.gov/the-press-office/2015/07/29/executive-order-creating-national-strategic-computing-initiative)

U.S. Bumps Exascale Timeline, Focuses on Novel Architectures for 2021 (https://www.nextplatform.com/2016/12/08/u-s-retracts-exascale-timeline-focuses-novel-architectures-2021/)

Außerdem: AMD Selected by the U.S. Department of Energy to Help Drive Next-Generation Supercomputing Hardware Architecture (http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2281294)

Skysnake
2017-08-27, 20:31:07
Ein 4 Socket RR HPC System hätte sehr viel Speicher im direkten Zugriff. Wenn die Einträge bei Heise stimmen kann ein Epyc bis zu 2TB an Hauptspeicher haben (pro Sockel). Ein RR HPC System könnte dann das gleiche ermöglichen.

Die DP Leistung wäre mit 3-6 TFlops (1 Sockel, 200w oder 2 Sockel, 400w) auch nicht so schlecht, nur die SP-Leistung wäre mit 6-12 TFlops nicht so großartig.

Der Vorteil wäre wahrscheinlich hauptsächlich der große Hauptspeicher. Wenn ich alte Präsentationen und PDFs noch richtig im Kopf habe ist der kleine Speicher bei GPUs und das dadurch notwendige hin-und-her kopieren oft dafür verantwortlich dass nur ein (kleiner) Teil der max. möglichen Performance auch wirklich erreicht wird. HPC Anwendungen sind ja oft Anwendungen, die mit sehr großen Datensätzen arbeiten.

https://www.heise.de/preisvergleich/amd-epyc-7351p-a1643114.html
Nein, der Hauptvorteil ist nicht der große Speicher, sondern der geringere Overhead um überhaupt mal die GPU ALUs zu benutzen.

Das ist wie mit SIMD. Das erzeit auch etwas Overhead, weshalb es erst ab einer gewissen Anzahl an loops etwas bringt. Oft ist das bei >12 Iterationen so, wobei man damit quasi noch gar nicht schneller ist.

Wirklich schneller ist man erst bei hunderten von Iterationen. Für GPUs braucht man aber zehntausende von Iterationen, damit man schneller ist, also bei einfachen Schleifen.

iGPUs könnten da auch im Bereich von einigen hundert Iterationen sein, wo man einen Benefit hat.

Leonidas
2017-08-28, 09:51:53
1x CCX = 44mm2; Summit Ridge = 213mm2 ;)


Nein, Summit Ridge soll ~189mm² sein. Raven Ridge ist ~213mm².

M4xw0lf
2017-08-28, 10:05:07
Nein, Summit Ridge soll ~189mm² sein. Raven Ridge ist ~213mm².
AMD hat neulich erst Folien zum Vorteil MCM vs. monolithic Die gezeigt (bezüglich Epyc), da war iirc von den 213 mm² die Rede.
€: hier: http://www.pcgameshardware.de/AMD-Zen-Codename-261795/News/AMD-Epyc-41-Prozent-Kostenvorteil-durch-MCM-Design-1237000/galerie/2782283/

deekey777
2017-08-30, 19:48:50
Tote Hose während der IFA (dafür richtig interessante Laptops mit KBL-Refreshes).

Versprochenes Lenovo Pad: http://browser.geekbench.com/v4/cpu/3770816

Pirx
2017-08-30, 20:41:25
na hoffentlich kommt da noch ein bisschen was und zwar bald

deekey777
2017-08-30, 22:06:01
Tote Hose während der IFA (dafür richtig interessante Laptops mit KBL-Refreshes).

Versprochenes Lenovo Pad: http://browser.geekbench.com/v4/cpu/3770816

Mein HP15 mit A10-9600P: https://browser.geekbench.com/v4/cpu/3849828
na hoffentlich kommt da noch ein bisschen was und zwar bald
Definitiv. Die IFA ist die letzte große Ausstellung, auf der diverse Hersteller fertige Geräte zeigen.

BoMbY
2017-08-30, 22:29:45
Versprochenes Lenovo Pad: http://browser.geekbench.com/v4/cpu/3770816

Sieht doch gar nicht mal schlecht aus - könnte mein nächstes mobiles Gerät werden.

dildo4u
2017-08-30, 22:37:32
Die Multicorescore ist ein Witz für 4 Core + HT auf Level Dual Core i3.

http://browser.geekbench.com/processors/1807

deekey777
2017-08-30, 22:49:23
Die Multicorescore ist ein Witz für 4 Core + HT auf Level Dual Core i3.

http://browser.geekbench.com/processors/1807Danke für den Witz, er war köstlich.

Opprobrium
2017-08-30, 22:52:42
Wenn man sich die einzelnen Werte fürs Multithreading anschaut sind da riesige Schwankungen. Auch und vor allem beim Speicher, der mit 300 Mhz auch eine merkwürdige Frequenz angezeigt hat.

deekey777
2017-08-30, 23:00:16
Wenn man sich die einzelnen Werte fürs Multithreading anschaut sind da riesige Schwankungen. Auch und vor allem beim Speicher, der mit 300 Mhz auch eine merkwürdige Frequenz angezeigt hat.
Oder der Multi-Core-Score ist einfach aufgrund der Frische falsch bzw. fehlerhaft. Das ist doch offensichtlich. Entscheidend (für mich) ist der deutlich höhere SC-Score.

Was Speicher angeht: http://browser.geekbench.com/v4/cpu/3811947
8050 MB -1MHz

reaperrr
2017-08-30, 23:07:33
Die Multicorescore ist ein Witz für 4 Core + HT auf Level Dual Core i3.

http://browser.geekbench.com/processors/1807
Das Ergebnis wird aber durch miese Werte in den Floating-Point-Tests, wo selbst der A10-9600P viel besser abschneidet, stark verwässert.

Wäre natürlich trotzdem besser, wenn das nicht final ist bzw. nicht die Performance in Praxis-Anwendungen wiederspiegelt.

deekey777
2017-08-30, 23:23:38
Das Ergebnis wird aber durch miese Werte in den Floating-Point-Tests, wo selbst der A10-9600P viel besser abschneidet, stark verwässert.

Wäre natürlich trotzdem besser, wenn das nicht final ist bzw. nicht die Performance in Praxis-Anwendungen wiederspiegelt.
Es dürfte offensichtlich sein, dass der Multi-Core-Score einfach fehlerhaft ist.
R5 1400: http://browser.geekbench.com/v4/cpu/3825661
R3 1200: http://browser.geekbench.com/v4/cpu/3829570
i7-7700: http://browser.geekbench.com/v4/cpu/3831089
i5-7500: http://browser.geekbench.com/v4/cpu/3825985

Unicous
2017-08-30, 23:36:59
Es gibt auch die Möglichkeit, dass es ein (falsch ausgelesener) 2-Kerner ist... dann wäre der Wert richtig gut.:wink:

deekey777
2017-08-30, 23:45:06
Es gibt auch die Möglichkeit, dass es ein (falsch ausgelesener) 2-Kerner ist... dann wäre der Wert richtig gut.:wink:
Dann müsste auch GFXBench die Daten falsch auslesen: https://gfxbench.com/device.jsp?benchmark=gfx40&os=Windows&api=gl&D=AMD+Ryzen+7+2700U+with+Radeon+Vega+Graphics&testgroup=info

Wäre aber eine Erklärung. Aber warum dann eine deutlich niedrigere FP-Leistung?

Unicous
2017-08-30, 23:52:59
Wo steht da der Core/Thread-Count des CPU-Teils?:uponder:

Dass da was bei Geekbench im Argen liegt dürfte ja klar sein (oder eine künstliche Beschneidung seitens AMD, man erinnere sich an die Ryzen-Benchmarks) und da Geekbench meines Erachtens eh nicht viel taugt ist eh nur ein Indiz, dass es den Chip gibt und Lenovo ihn anscheinend testet.

edit:

Mir fällt aber gerade ein, dass es ja schon mal einen Sisoftware-Eintrag gab, da wurde auch ein 4/8er ausgelesen.

dildo4u
2017-08-30, 23:59:21
AMD wird keine 2 Cores bringen,Intel rüstet demnächst auf alle 15 Watt Modelle werden Quad's.Ich hoffe das nimmt AMD den Wind nicht total aus den Segeln.

Unicous
2017-08-31, 00:00:33
:rolleyes:

BoMbY
2017-08-31, 07:01:24
Die Frage bezüglich des MC-Scores ist doch: Wie waren die TDP-Einstellungen zu dem Zeitpunkt? Lief das Gerät mit Netzversorgung, oder mit Akku, und was ist dann die jeweilige max. Einstellung?

deekey777
2017-08-31, 08:46:06
Wo steht da der Core/Thread-Count des CPU-Teils?:uponder:
Du klickst auf OpenCL API -> AMD Ryzen 7 2700U with Radeon Vega Graphics und scrollst etwas herunter und findest dort: CL_DEVICE_MAX_COMPUTE_UNITS 8





edit:

Mir fällt aber gerade ein, dass es ja schon mal einen Sisoftware-Eintrag gab, da wurde auch ein 4/8er ausgelesen.

Ja, 4C/8T und 11 CUs.
Und dann gibt es noch diese Roadmap: https://www.3dcenter.org/news/neue-roadmaps-praezisieren-amds-2017er-prozessoren-planungen Und da ist die Rede von einer RR-APU bis zu 4C/8T und 12 "Next Gen GFX Cores".

Unicous
2017-08-31, 12:34:42
Unter dem String werden aber auch oft die Shader Units ausgelesen.. zumindestens bei Intel "CPUs" ist das oft der Fall. Daher würde ich die Einträge bei GFXBench mit Vorsicht genießen.


Mir war ausßerdem schon klar, dass es 4/8er Raven Ridge geben wird. Es war nur ein Anmerkung, dass es nicht unbedingt bei diesem Chip der Fall sein muss.

deekey777
2017-08-31, 12:54:53
Unter dem String werden aber auch oft die Shader Units ausgelesen.. zumindestens bei Intel "CPUs" ist das oft der Fall. Daher würde ich die Einträge bei GFXBench mit Vorsicht genießen.


Mir war ausßerdem schon klar, dass es 4/8er Raven Ridge geben wird. Es war nur ein Anmerkung, dass es nicht unbedingt bei diesem Chip der Fall sein muss.
GFX unterscheidet schon zwischen der CPU und GPU, siehe OpenCL API -> gfx901, dort steht CL_DEVICE_MAX_COMPUTE_UNITS 11.

Gegenbeispiel: https://gfxbench.com/device.jsp?benchmark=gfx40&os=Windows&api=gl&D=AMD+PRO+A10-9700+R7%2C+10+COMPUTE+CORES+4C%2B6G&testgroup=info

OpenCL API Bristol Ridge -> CL_DEVICE_MAX_COMPUTE_UNITS 6 (passt, sind ja 6 CU)
OpenCL API AMD PRO A10-9700 R7, 10 COMPUTE CORES 4C+6G -> CL_DEVICE_MAX_COMPUTE_UNITS 4 (passt, sind 2 Module und 4 Threads)

Ich meinte das anders:
Vielleicht gibt es gar eine RR-APU mit 12 CUs; 12 CUs hat auch die Xbox One/S.


Edit:
Vorerst doch keine Thikpads mit RR, sondern noch mit BR, Lenovo: AMD ThinkPads A275 und A475 offiziell angekündigt - mit Bristol Ridge

Leonidas
2017-09-02, 13:37:00
AMD hat neulich erst Folien zum Vorteil MCM vs. monolithic Die gezeigt (bezüglich Epyc), da war iirc von den 213 mm² die Rede.
€: hier: http://www.pcgameshardware.de/AMD-Zen-Codename-261795/News/AMD-Epyc-41-Prozent-Kostenvorteil-durch-MCM-Design-1237000/galerie/2782283/


Danke sehr!





AMD wird keine 2 Cores bringen,Intel rüstet demnächst auf alle 15 Watt Modelle werden Quad's.Ich hoffe das nimmt AMD den Wind nicht total aus den Segeln.


Stoney Ridge ist ein 2C-Die auf Basis von Bristol Ridge. Gab schon Vorserien-Samples davon, dann nicht mehr viel davon gehört ...

iuno
2017-09-02, 14:05:42
Stoney ist schon lange auf dem Markt, ist halt wie Bristol Excavator Alteisen und hat mit Zen nichts am Hut.
Es ist aber durchaus ein Nachfolger geplant, mindestens fuer embedded (Banded Kestrel).

Unicous
2017-09-02, 14:52:56
Ach ja, der Leonidas, immer gut informiert über die aktuelle Lage.:rolleyes:

Gibt ja nur insgesamt 12 Modelle auf Stoney Ridge Basis und Markteinführung war ja gerade mal vor einem... Jahr. *Schulterzuck

deekey777
2017-09-02, 15:03:47
Hat Stoney nicht den verbesserten UVD?

teetasse
2017-09-02, 21:53:04
Ja, hat er, und Raven Ridge wird einen UVD 7.x beinhalten, wobei ich dessen Neuerungen wirklich nicht haben will. Angeblich haben sie mit 5K- und 8K-Auflösungen zu tun.

Vielleicht kann der Herrgott etwas Hirn vom Himmel regnen lassen, damit wir von sowas verschont bleiben? Es nützt dem Einzelnen ja nichts, später als letzter Kunde nach einem Monitor mit weniger als 8K zu fragen, wenn man nur noch zwischen 8K und 16K wählen kann, weil die Masse der Leute zu bräsig ist.

BoMbY
2017-09-03, 12:48:36
Raven hat kein UVD und auch kein VCE - Raven hat VCN 1.0 (https://lists.freedesktop.org/archives/amd-gfx/2017-May/008975.html).

iuno
2017-09-03, 16:42:56
@teetasse: was hast du fuer ein Problem damit? IIRC sorgt das auch dafuer, dass man ggf. mehrere Streams gleichzeitig decodieren kann. Aber ja, wichtiger waere endlich mal VP9 Support.

deekey777
2017-09-03, 17:03:20
Es ist in erster Linie neuer Name. Wichtig ist, ob die Encoding-Hardware verbessert worden ist, sei es die Videoaufnahme oder die Umwandlung.

BoMbY
2017-09-03, 17:18:09
VCN ist nur die neue VCE, wird auch mal VCE 4.0 genannt. UVD ist auch weiterhin da, bei Vega etwa in Version 7.0.


Nein. Erzählt doch nicht so einen Unsinn:


case CHIP_VEGA10:
amdgpu_ip_block_add(adev, &vega10_common_ip_block);
amdgpu_ip_block_add(adev, &gmc_v9_0_ip_block);
amdgpu_ip_block_add(adev, &vega10_ih_ip_block);
if (amdgpu_fw_load_type == 2 || amdgpu_fw_load_type == -1)
amdgpu_ip_block_add(adev, &psp_v3_1_ip_block);
if (!amdgpu_sriov_vf(adev))
amdgpu_ip_block_add(adev, &amdgpu_pp_ip_block);
if (adev->enable_virtual_display || amdgpu_sriov_vf(adev))
amdgpu_ip_block_add(adev, &dce_virtual_ip_block);
amdgpu_ip_block_add(adev, &gfx_v9_0_ip_block);
amdgpu_ip_block_add(adev, &sdma_v4_0_ip_block);
amdgpu_ip_block_add(adev, &uvd_v7_0_ip_block);
amdgpu_ip_block_add(adev, &vce_v4_0_ip_block);
break;
case CHIP_RAVEN:
amdgpu_ip_block_add(adev, &vega10_common_ip_block);
amdgpu_ip_block_add(adev, &gmc_v9_0_ip_block);
amdgpu_ip_block_add(adev, &vega10_ih_ip_block);
amdgpu_ip_block_add(adev, &psp_v10_0_ip_block);
amdgpu_ip_block_add(adev, &amdgpu_pp_ip_block);
if (adev->enable_virtual_display || amdgpu_sriov_vf(adev))
amdgpu_ip_block_add(adev, &dce_virtual_ip_block);
amdgpu_ip_block_add(adev, &gfx_v9_0_ip_block);
amdgpu_ip_block_add(adev, &sdma_v4_0_ip_block);
amdgpu_ip_block_add(adev, &vcn_v1_0_ip_block);
break;


VCN 1.0 löst UVD und VCE ab.

Edit: Und ja, VCN kann VP9 (auch wenn VP9 total unwichtig ist).

teetasse
2017-09-04, 13:29:55
@teetasse: was hast du fuer ein Problem damit? IIRC sorgt das auch dafuer, dass man ggf. mehrere Streams gleichzeitig decodieren kann. Aber ja, wichtiger waere endlich mal VP9 Support.

Mein Problem damit: 8K ist komplett sinnlos, es bringt null Vorteile, hat aber diverse Nachteile:
- Preistreiberei
- Irrsinnige Anforderungen an die Grafikkarte (daraus folgt => auch hierfür steigende Kosten)
- Ressourcen-Verschwendung
- Konzentration auf 8K statt auf Qualität der Features und mehr Ausstattung.

Die Mediamarkt-Käufer sind leider so bräsig, dass sie gar nichts hinterfragen. Die denken sich "8K ist doppelt so gut wie 4K, und das ist doppelt so gut wie 2K!". Sie legen viel Geld für 8K-Monitore auf den Tisch, und mit der Zeit findet auch der informierte Käufer nur noch unsinnige 8K-Monitore im Regal, wofür er 2 fette Grafikkarten benötigt.
Glaub mir, das wird so kommen. Man sieht es jetzt schon bei den 4K-Fernsehern, die auf die Entfernung im Wohnzimmer gar nicht besser sein können als 2K, weil das menschliche Auge das einfach nicht hergibt.

Youtube kann VP9, von daher ist das schon wichtig. Wobei ich nur auf die UVD wert lege. So lange VCE nicht die gleiche Qualität liefert wie die CPU, rechne ich lieber mit Ryzen und vielen Kernen.

Leonidas
2017-09-04, 13:34:17
Gibt ja nur insgesamt 12 Modelle auf Stoney Ridge Basis und Markteinführung war ja gerade mal vor einem... Jahr. *Schulterzuck


Ach komm schon. Wenn es keine neuen News gibt, dann "hört man eben nichts mehr davon". Das Produkt selber kann dabei durchaus im Markt sein - wie in diesem Fall.



Und die Leute, die bei Mediamarkt kaufen, sind halt so bräsig, dass sie gar nichts hinterfragen. Die denken sich "8K ist doppelt so gut wie 4K, und das ist doppelt so gut wie 2K".


Erzähl denen unbedingt, das es ja eigentlich 4x so gut ist, weil 4x so viele Bildpunkte. Danach bekommste Sonderrabatte von der Mediamarkt-Führung ...

Unicous
2017-09-04, 13:37:19
Die News gab es vor einem Jahr. *Schulterzuck

Gab sogar zu der Zeit schon Produktankündigungen. *Schulterzuck

http://www.anandtech.com/show/10362/amd-7th-generation-apu-bristol-ridge-stoney-ridge-for-notebooks

Man muss halt vorher auch ein wenig recherchieren bevor man eine Behauptung aufstellt. *Schulterzuck

Leonidas
2017-09-04, 13:58:56
Man könnte natürlich auch sagen, das ich gar keine Behauptung aufgestellt habe. Die Aussage, das ich nix mehr davon gehört habe, ist keine definitive Aussage dazu, was daraus geworden ist. Es ist eine Aussage, das es kein beachtbares Echo zum Produkt mehr gibt. Das kann also durchaus still (verkaufslos) im Markt sein.

Unicous
2017-09-04, 14:28:39
:rolleyes:

2 Sec Google-Suche.

https://www.computerbase.de/2016-05/stoney-ridge-notebook-amd-a9-9410-a6-9210-e2-9010/

iuno
2017-09-04, 15:13:26
Nein. Erzählt doch nicht so einen Unsinn:
Hast recht, war Quatsch, den ich falsch im Kopf hatte :usad:

Mein Problem damit: 8K ist komplett sinnlos, es bringt null Vorteile, hat aber diverse Nachteile:
- Preistreiberei
- Irrsinnige Anforderungen an die Grafikkarte (daraus folgt => auch hierfür steigende Kosten)
- Ressourcen-Verschwendung
- Konzentration auf 8K statt auf Qualität der Features und mehr Ausstattung.

Die Mediamarkt-Käufer sind leider so bräsig, dass sie gar nichts hinterfragen. Die denken sich "8K ist doppelt so gut wie 4K, und das ist doppelt so gut wie 2K!". Sie legen viel Geld für 8K-Monitore auf den Tisch, und mit der Zeit findet auch der informierte Käufer nur noch unsinnige 8K-Monitore im Regal, wofür er 2 fette Grafikkarten benötigt.
Glaub mir, das wird so kommen. Man sieht es jetzt schon bei den 4K-Fernsehern, die auf die Entfernung im Wohnzimmer gar nicht besser sein können als 2K, weil das menschliche Auge das einfach nicht hergibt.

Natuerlich bringt die hoehere Aufloesung Vorteile, was wiederum aber nicht heisst, dass andere Dinge nicht wichtiger waeren. Trotzdem wirst du nicht genoetigt, alles auf 8k umzuruesten, nur weil es decodiert werden kann. Schau doch z.B. mal bei Steam in die hardware survey. Das ist die selbsternannte "PC MASTER RACE" und der ueberwiegende Grossteil haengt immer noch bei Aufloesungen <=FHD rum, waehrend WQHD nicht mal auf 3% und UHD nicht mal auf 1% der Nutzer kommt.

Youtube kann VP9, von daher ist das schon wichtig. Wobei ich nur auf die UVD wert lege. So lange VCE nicht die gleiche Qualität liefert wie die CPU, rechne ich lieber mit Ryzen und vielen Kernen.
Ist halt auch der einzige freie codec, der mit h.265 mithalten kann. Solange AV1 noch nicht fertig und verbreitet ist, ist das schon interessant.
Es kommt halt darauf an, was du machst. Fuer Vieles reicht die VCE schon aus und die Hoffnung ist ja, dass es besser wird. Wir reden hier schon ueber kleinere CPUs mit 4C8T und besonders auch den mobilen Einsatz und nicht ueber Desktop Ryzen (Threadripper). Da bekommt das nochmal eine ganz andere Bedeutung.

Leonidas
2017-09-04, 15:35:14
:rolleyes:

2 Sec Google-Suche.

https://www.computerbase.de/2016-05/stoney-ridge-notebook-amd-a9-9410-a6-9210-e2-9010/


Du hast ja Recht. Wäre einfacher gewesen, anstatt sich zu einer Sache, wo man lange nicht mehr recheriert hat, aufs Gedächtnis zu verlassen.

teetasse
2017-09-06, 13:56:11
Natuerlich bringt die hoehere Aufloesung Vorteile, was wiederum aber nicht heisst, dass andere Dinge nicht wichtiger waeren. Trotzdem wirst du nicht genoetigt, alles auf 8k umzuruesten,

Die Frage ist, wie groß der Vorteil sein soll und welcher Preis dafür zu zahlen ist. Am 04.09. gab es hier eine News "Erste Grafikkarten-Benchmarks unter 8K zeigen enormen Performance-Hunger dieser Auflösung".

Ich beziehe mich in meiner Einschätzung nicht auf Steam, sondern auf Foren wie dieses oder Computerbase etc. Da gibt es Leute, die dir erzählen wollen, dass sie von 2K "Augenkrebs" kriegen würden und behaupten, sofort und immer 4K von 2K unterscheiden zu können, wegen Augenkrebs und so.

Bei Fernsehern ist 4K ja definitiv schwachsinnig, weil einzelne Pixel auf die Entfernung von der Couch überhaupt nicht mehr erkennbar sind, auch in FullHD nicht (frag mal deinen Augenarzt!). Trotzdem ist es so weit gekommen, dass man kaum noch FullHD-Fernseher bekommt, ohne zur Ramsch-Klasse zu greifen. Die laufen aus.

Nicht weil 4K so sinnvoll wäre, sondern weil die Leute sich von der Industrie so gut verarschen lassen. Mit 8K wird es genauso gehen, wenn die Presse nicht gegensteuert und die Leute aufklärt. (Wink an @Leonidas)

PS: Nochmal @Leonidas: eine Linksammlung namens "Carrizo" wirkt auch schon lange aus der Zeit gefallen. "Bristol Ridge" oder "Bristol Ridge & Carrizo" wäre passender.

BoMbY
2017-09-14, 17:59:02
AMD Ryzen 5 2500U with Radeon Vega Graphics @ 2.00 GHz (1 processor, 4 cores, 8 threads): https://browser.geekbench.com/v4/cpu/3989386

AMD Radeon(TM) Vega 8 Mobile Graphics: https://browser.geekbench.com/v4/compute/1105826

Teilweise via Guru3D (http://www.guru3d.com/news-story/geekbench-results-for-raven-ridge-2500u.html).

deekey777
2017-09-14, 18:25:22
Jetzt stimmt das Multicore-Ergebnis - und schlechter als Apple A11. X-D

Unicous
2017-09-14, 18:29:15
Das ist mehr als ordentlich, auch wenn der MT-Score (zumindestens der uplift) etwas unter den Erwartungen bleibt.

Zum Vergleich ein Kaby-Lake R! i5-8250U

https://browser.geekbench.com/v4/cpu/compare/3986066?baseline=3989386

Man ist wirklich nah dran und das sollte Intel doch Schweißperlen auf die Stirn zaubern.:wink:


@deekey777

Vergleichst du wirklich gerade ARM mit x86?:rolleyes:


Generell ist Geekbench eh kein guter Benchmark. Die Ergebnisse schwanken so stark sogar, dass Vergleiche mit Vorsicht zu genießen sind. Dennoch kann man einen Trend ablesen. Und da kann man im Moment nur Positives berichten.

deekey777
2017-09-14, 19:24:58
Steht Mandolin eigentlich nicht für das ES der Raven Ridge?

Unicous
2017-09-14, 19:29:39
Nö, das ist der Name der Plattform, also das Dev-Board. Wie z.B. Gardenia bei Carrizo/Bristol Ridge. (Wobei Gardenia, iirc, auch für RR verwendet wurde).

deekey777
2017-09-14, 20:08:01
Es ist schon 20:00 und keiner ist da, der uns erklärt, dass der Score Scheiße ist?

Der OpenCL-Wert ist nicht schlecht, https://browser.geekbench.com/v4/compute/1076645

MX150 ist natürlich schneller, auch die 940MX. Ein Yoga oder x360 von HP mit der R5 2500U und schon kann man so manches Spielchen spielen, wobei ein Zweikerner mit SMT mit 11 CUs vielleicht besser wäre (wegen TDP).

Unicous
2017-09-14, 20:38:19
Ist auch die Frage inwieweit hier wieder der Speicher limitiert. Im Zweifel wurde mal wieder DDR4-2133 genutzt.:rolleyes:

AMD crippled sich ja auch gerne selbst.:freak: Und dann schauen wir mal wie die OEMs das händeln. ;(

deekey777
2017-09-14, 20:42:56
Das ist bei 15W-Geräten normal. In meinem HP15 steckt DDR4-2400, der mit 933 MHz läuft.

Unicous
2017-09-14, 20:49:01
Da sowohl Ryzen als auch der Grafik-Part der APUs extrem an der Bandbreite hängen, wird da wohl einiges an Leistung brach liegen.:frown:

Der_Korken
2017-09-14, 20:54:44
Hat Raven Ridge nur 4MB L3-Cache? Oder ist der 2500U beschnitten und der Top Dog bekommt 8MB?

deekey777
2017-09-14, 21:00:16
Auch der R7 2700U hat 4 MB, http://browser.geekbench.com/v4/cpu/3770816

Unicous
2017-09-14, 21:09:28
Da L3 dazu tendiert hungrig zu sein, ist die Halbierung eine nötige Einsparung. Man könnte im Gegenzug die Latenz verringern um da ein wenig gegenzusteuern. (Edit: Wobei... die L3 Latenz hängt ja iirc auch vom IF ab, die wiederum am Speicher hängt:uponder:)

Viel interessanter ist für mich das Zwischenspiel CPU+GPU und inwieweit die GPU auf die Caches zugreifen kann bzw. darf.

fondness
2017-09-14, 21:49:50
Gab es nicht auch schon einen mit 8MB?

/Edit: Hier gibt es einen Hinweis auf 8MB, aber das kann natürlich outdated sein:

https://s26.postimg.org/r5c1c2rft/af867a4ed9bcf2e266f8ce2c75f1ff45.jpg (https://postimages.org/)

Unicous
2017-09-14, 22:02:37
Afaik, nein. Ich schätze wenn es RR mit 8MB geben wird(wovon auszugehen ist -> Great Horned Owl) dann werden entweder alle Mobile auf 4MB gestutzt oder zumindest bei den U-Modellen. Desktop/Embedded wäre demnach nicht beschnitten.

Aber mal schauen. Vllt. wird es auch falsch ausgelesen. Sinn machen würden die 4MB jedenfalls mMn.


edit:

Achso ich dachte du meinst in Form eines Benchmarks. Die Folie dürfte ja allgemein bekannt sein.

basix
2017-09-14, 22:13:35
Mal eine Frage zu dieser Folie: Dort steht "2MB shared L2". WTF? Ist das einfach ein Fehler oder gibt es das wirklich?

Unicous
2017-09-14, 22:24:19
Würde ich unter Fehler des Folienpraktikanten verbuchen, da sich ja an der Grundstruktur von Zen bzw. des CCX nichts ändert.

deekey777
2017-09-14, 23:19:28
Es sieht so aus, dass die RR-APUs mit Single-Channel getestet worden sind.

Unicous
2017-09-14, 23:24:43
Wie kommst du darauf? Es würde mich nicht wundern (der MC-Score ist für meinen Geschmack etwas zu niedrig), aber woran machst du das fest?

Achill
2017-09-14, 23:29:32
Wie kommst du darauf? Es würde mich nicht wundern (der MC-Score ist für meinen Geschmack etwas zu niedrig), aber woran machst du das fest?

(amd)
https://browser.geekbench.com/v4/cpu/3989386

Memory Copy / 3005 / 8.33 GB/sec
Memory Latency / 4347 / 99.6 ns
Memory Bandwidth / 2761 / 14.7 GB/sec

--

(intel)
https://browser.geekbench.com/v4/cpu/3986066

Memory Copy / 3862 / 10.7 GB/sec
Memory Latency / 4526 / 95.6 ns
Memory Bandwidth / 3658 / 19.5 GB/sec

deekey777
2017-09-14, 23:33:41
Die i5-8250-Geräte erreichen auch 25 GB/s. Es schlägt sich zwar nicht extrem durch, aber Dual-Channel scheint im MC-Score paar tausend Punkte zu bringen.

Unicous
2017-09-14, 23:34:16
Ja danke, ich hatte es mir gerade auch nochmal angeguckt. Hatte die Memory Bandwidth gar nicht für voll genommen.:wink:

dildo4u
2017-09-14, 23:42:25
Der Intel hat auch zu wenig Bandbreite für Dual Channel,selbst 1866 sollte bei 30 GB/sec rauskommen.

Tippe auf ein 2400 Riegel:

http://abload.de/img/intelfansy0.png

deekey777
2017-09-14, 23:48:33
Armes Intel.

Unicous
2017-09-14, 23:50:54
Ich möchte nochmal an diesen "Erguss" erinnern:

Die Multicorescore ist ein Witz für 4 Core + HT auf Level Dual Core i3.

:freak::freak::freak:

dildo4u
2017-09-14, 23:53:36
Besser aber ich verstehe nicht wie Apple neue ARM CPU schneller sein kann.
Welches TDP haben die 3 Watt?

Unicous
2017-09-15, 00:21:25
:facepalm:


Ich weiß nicht wie man das noch anders kommentieren kann.

dildo4u
2017-09-15, 00:23:17
Für was ist sonst ein Crossplattform Bench da wenn man ihn nicht direkt vergleichen kann?

Unicous
2017-09-15, 00:44:37
Wer hat behauptet, dass man Vergleiche anstellen könnte oder sollte (e: zwischen ARM und x86)?

Nur weil die Ergebnisse in der selben Datenbank stehen, heißt das nicht automatisch, dass sie vergleichbar sind. Oder erzeugt ein ARM-Prozessor auf einmal x86 Code(und vice versa)?:rolleyes:

dildo4u
2017-09-15, 00:50:12
Dann lügt der Entwickler?

http://abload.de/img/geekrxjow.png

Ich verstehe ja die AMD Performance die haben nicht die Mittel gegen Apple anzustinken aber Intel sollte mithalten.

Unicous
2017-09-15, 01:03:02
Klar lügt "er".

Und mach dich bitte nicht lächerlich. Du checkst offensichtlich (wie so viele) nicht, dass der A11 ein dedizierter SoC, für vergleichsweise wenige Geräte in einem geschlossenen Software- und Ökossystem, ist, und in den Benchmarks dann für die paar Sekunden ganz nett ausschaut und die "Punkte" logischerweise auf die anderen Plattformen normalisiert wurden.:rolleyes:

edit:
Was der gute Linus zu Geekbench 3 seinerzeit zu sagen hatte.

Wilco, geekbench has apparently replaced dhrystone as your favourite useless benchmark.

Geekbench is SH*T.

It actually seems to have gotten worse with version 3, which you should be aware of. On ARM64, that SHA1 performance is hardware-assisted. I don't know if SHA2 is too, but Aarch64 does apparently do SHA256 in the crypto unit, so it might be fully or partially so.

And on both ARM and x86, the AES numbers are similarly just about the crypto unit.

So basically a quarter to a third of the "integer" workloads are just utter BS. They are not comparable across architectures due to the crypto units, and even within one architecture the numbers just don't mean much of anything.

And quite frankly, it's not even just the crypto ones. Looking at the other GB3 "benchmarks", they are mainly small kernels: not really much different from dhrystone. I suspect most of them have a code footprint that basically fits in a L1I cache.

Linus
https://www.realworldtech.com/forum/?threadid=136526&curpostid=136666

Seit GB3 hat sich daran nicht viel geändert, auch wenn Primate Labs etwas anderes behauptet.

iuno
2017-09-15, 01:32:34
Da wird natuerlich auch viel fixed function benutzt, z.B. fuer encryption oder compression. Bei dem "kleinen" System wird das natuerlich auch entsprechend genutzt.

deekey777
2017-09-15, 09:15:40
Jetzt mal Butter bei die Fische:
Dem Nutzer sollte es egal sein, wie das Ergebnis zustandekommt, so lange das Ergebnis selbst richtig ist. Ja, SoCs von Apple, QCOM usw. haben alle spezielle HW-Einheiten, das ist nicht neu, genau wie aktuelle Prozessoren zB für AES spezielle Befehlssatzerweiterungen haben. Leidet darunter die Vergleichbarkeit? Nicht, wenn man Äpfel mit Birnen vergleicht bzw. das vorgenannte berücksichtigt.


Wenn aber jemand so etwas schreibt:
Ich verstehe ja die AMD Performance die haben nicht die Mittel gegen Apple anzustinken aber Intel sollte mithalten.
(Man achte auf die Wortwahl.)

dann :facepalm:.

Da wird natuerlich auch viel fixed function benutzt, z.B. fuer encryption oder compression. Bei dem "kleinen" System wird das natuerlich auch entsprechend genutzt.
Die Realität ist häufig so:

"Ich komme mit meinem Ryzen 7 auf fast Echtzeitencoding mit x265!"
"Wirklich? Meine Nvidia schafft 200 Frames pro Sekunde, Loser!"
"Deine Grafikkarte hat aber einen speziellen Videoencoder und die Qualität ist deutlich schlechter."
"Ist mir egal, mir reicht sie."

dildo4u
2017-09-15, 09:30:58
Haben nicht alle aktuellen CPU's Einheiten für AES?Ryzen schlägt dort Apple und Intel.

https://browser.geekbench.com/v4/cpu/compare/3989386?baseline=4012497


https://browser.geekbench.com/v4/cpu/compare/3989386?baseline=3986066

teetasse
2017-09-15, 15:42:17
Für was ist sonst ein Crossplattform Bench da wenn man ihn nicht direkt vergleichen kann?

Damit du lernst, dass man nicht alles glauben darf, was einem erzählt wird. Schlechte Benchmarks sind nur ein Beispiel, schlecht gemachte Reviews ein anderes.


Dann lügt der Entwickler?
Dazu ein Gebrauchtwagenhändler: "Dieses sein top Auto, kost nix, hat nix Kiometer, Preis super, weil du bist Freund".
Kaufst du ihm das Auto ab?