PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 [43] 44 45 46 47 48

Grendizer
2020-01-06, 13:43:45
Mal ganz kurz.... Business Modelle kosten doch keine 2000 Euro....

Wir zahlen für Lenovo Geräte mit Vor-Ort Service keine 1300 Netto. Dazu dann noch eine Dockingstation..... das was ihr meint sind Blink, Blink Geräte für Führungskräfte, aber die gehen vermutlich nicht in den Menge wie z.B. ein Lenovo T590 über die Theke.

Complicated
2020-01-06, 13:46:16
Du wirst keine Referenz-Geräte für AMD von ausgerechnet Dell erwarten?


Wir zahlen für Lenovo Geräte mit Vor-Ort Service keine 1300 Netto. Dazu dann noch eine Dockingstation..... das was ihr meint sind Blink, Blink Geräte für Führungskräfte, aber die gehen vermutlich nicht in den Menge wie z.B. ein Lenovo T590 über die Theke.++1
Genau so siehts aus. Die T470->T480->T490 sind ebenfalls sehr beliebt. Doch es werden auch immer mehr T4x5 Modelle evaluiert mit AMD Innenleben.
https://www.lenovo.com/de/de/laptops/thinkpad/t-series/T495/p/22TP2TTT495

LasterCluster
2020-01-06, 13:51:49
Im ~35W TDP Bereich wird Renoir auf Grunde des Fertigungsprozesses klar das bessere Produkt sein. Ich denke, dass ist offensichlich.
TGL-U/Y dagegen wird ne andere Nummer und AMD im Premiummarkt für Ultrabooks noch auf Abstand halten, aber halt nur dort.

robbitop
2020-01-06, 14:11:17
So kann man nicht rechnen, da ja viele Programme viele Kerne nutzen. Also auch mehr nutzbarer L3. Nur bei Programmen die wenige Kerne nutzten kann man so rechnen, denke mal dass Zen 3 genau auch deshalb deutlich mehr SingleThread hat weil nen einzelner Kern dann doppelt so viel L3 hat!
Ja das stimmt. Es kommt auf die Software und das Instructionset an. Hat das Instructionset viele Gemeinsamkeiten werden Dinge doppelt in 2x CCX abgelegt. Also bringt für diesen Teil der dann doppelte Cache nichts. Je nach Software ist der Anteil größer oder kleiner. Ich tippe aber darauf, dass es nie ganz so ist als wäre es ein Cache.
In Spielen würde ich tippen, dass 2x4MiB eher wirken wie 4 MiB als wie 8 MiB. ;)

Complicated
2020-01-06, 14:30:13
https://fuse.wikichip.org/news/1177/amds-zen-cpu-complex-cache-and-smu/2/
The L3 is filled with L2 victims. There are also special shadow tags found in each slice which duplicate the L2 state/tag entries for indexes in that slice. On an L2 miss or an external CCX probe in the case of multiple CCX configurations, those shadow tags are checked in parallel to the L3 checks in order to alleviate actual L2 bandwidth. The CCX itself was designed such that the L3 acts as a crossbar for each of the four cores.

SKYNET
2020-01-06, 14:34:50
Mal ganz kurz.... Business Modelle kosten doch keine 2000 Euro....

Wir zahlen für Lenovo Geräte mit Vor-Ort Service keine 1300 Netto. Dazu dann noch eine Dockingstation..... das was ihr meint sind Blink, Blink Geräte für Führungskräfte, aber die gehen vermutlich nicht in den Menge wie z.B. ein Lenovo T590 über die Theke.


ja, wenn du sone basic ausstattung hast, mag das mit dem preis stimmen... mein 8570p kostete seinerzeit deutlich über 3k, und für die workstation version 8570W konntest auch schnell 4k+ auf den tresen legen :freak:

hier mal mit nem 3520M, 4GB ram, dem ranzigen 1600*900 display, und ner normalen HDD... mit 3840QM, 16GB, dem true tone FHD display(100% sRGB & adobe RGB) sowie 180GB SSD warens dann halt 2k mehr :D

https://www.notebookcheck.com/Test-HP-EliteBook-8570p-B6Q03EA-ABD-Notebook.81801.0.html

Complicated
2020-01-06, 15:07:56
Das sind aber keine Business-Geräte, die nennen sich dann "Executive"-Model.
Und fast 3 kg ohne Netzteil? Muss wohl nicht viel bewegt werden das Gerät ;)
Dieser hohe Qualitätsstandard führt allerdings weiterhin zu einem Nachteil bei der Mobilität und schlägt sich vor allem im relativ hohen Gewicht von 2,91 kg nieder. Mit dem 520 g schweren Netzteil, einer Tasche und etwas Zubehör wird das Einsatzgewicht also schnell die 4-kg-Marke erreichen.

Edit: Zotac sollte Taschen für seine Mini-Pcs anbieten. Die sind mobiler und schneller bei Bedarf ;)

Wex
2020-01-06, 15:13:28
Ich hoffe auf ein grundsolides Huawei Matebook D 14 mit Renoir 8 Kerner (vma auch ohne HT), ordentlich aktiven Vega CU's und 3200 DDR4 oder noch besser LPDDR4.

Und das alles für 600-800€.

Mein Gott, wie gerne würde ich bei einer Hardware Seite arbeiten um so ein Gerät jetzt schon komplett durchzuchecken. :freak:

Linmoum
2020-01-06, 15:20:04
Ich beneide sie aktuell eher darum, die ganzen Folien und Details schon zu kennen. Will auch. :freak:

Grendizer
2020-01-06, 15:23:56
ja, wenn du sone basic ausstattung hast, mag das mit dem preis stimmen... mein 8570p kostete seinerzeit deutlich über 3k, und für die workstation version 8570W konntest auch schnell 4k+ auf den tresen legen :freak:

hier mal mit nem 3520M, 4GB ram, dem ranzigen 1600*900 display, und ner normalen HDD... mit 3840QM, 16GB, dem true tone FHD display(100% sRGB & adobe RGB) sowie 180GB SSD warens dann halt 2k mehr :D

https://www.notebookcheck.com/Test-HP-EliteBook-8570p-B6Q03EA-ABD-Notebook.81801.0.html

das sind mobile Workstations und keine Business Notebooks im klassischen Sinne.

Businnes Notebook aktuell I5/I7, 8 Gb Ram, 512 Gb SSD ... mehr braucht es für Office, SAP Gui und klassische Büroanwendungen nicht.

Wir sprechen hier nicht von Designer/CAD usw Arbeitsplätzen.

Unicous
2020-01-06, 15:26:01
Komachi behauptet, es gäbe bereits ein B0 Stepping für Renoir und spekuliert laut schlechter Google-Übersetzung wohl ob das Stepping für Desktop-Chips genutzt wird.

https://twitter.com/KOMACHI_ENSAKA/status/1214152468784828416

SKYNET
2020-01-06, 15:30:09
Das sind aber keine Business-Geräte, die nennen sich dann "Executive"-Model.
Und fast 3 kg ohne Netzteil? Muss wohl nicht viel bewegt werden das Gerät ;)


Edit: Zotac sollte Taschen für seine Mini-Pcs anbieten. Die sind mobiler und schneller bei Bedarf ;)


dafür ist die CPU in multithread anwendungen immernoch schneller als intels AKTUELLES & komplettes i7 mobile lineup mit 4C/8T :biggrin: damals wurde noch nicht an kühlsystemen gespart, voller boost ohne einschränkungen :smile:

SKYNET
2020-01-06, 15:39:24
das sind mobile Workstations und keine Business Notebooks im klassischen Sinne.

Businnes Notebook aktuell I5/I7, 8 Gb Ram, 512 Gb SSD ... mehr braucht es für Office, SAP Gui und klassische Büroanwendungen nicht.

Wir sprechen hier nicht von Designer/CAD usw Arbeitsplätzen.

die workstations waren die W modelle... ;)

und konntest das 8570p ja bereits ab 1100€ haben in der basisversion, aber die konnten halt nix, weil das display war mies, die cpu lahm... war eigentlich nur gross und schwer, ohne mehrwert, in der max(= meins) ausstattung, wars immernoch gleich schwer, aber 3x so schnell wie die grundversion bei der CPU :biggrin:

mironicus
2020-01-06, 15:48:55
Ich beneide sie aktuell eher darum, die ganzen Folien und Details schon zu kennen. Will auch. :freak:

Lisa wird dich heute Nacht schon "kommen" lassen. ;D

https://www.youtube.com/watch?v=zUeo7kUzn_8

23 Uhr geht es los.

basix
2020-01-06, 15:57:14
Das sind aber keine Business-Geräte, die nennen sich dann "Executive"-Model.
Und fast 3 kg ohne Netzteil? Muss wohl nicht viel bewegt werden das Gerät ;)

Also mein alter Klopper mit 3720QM ist 3.1kg ohne Netzteil :freak: Dazu noch ein Netzeil mit 0.9kg ;D

Das neue P53 ist mit knapp 2.5kg deutlich leichter und 1.2cm dünner ;)

Slipknot79
2020-01-06, 16:26:50
gähn schnarch Laptops, ballert lieber Infos über dicke Männerhardware raus. :tongue: :redface:

kmf
2020-01-06, 16:44:10
gähn schnarch Laptops, ballert lieber Infos über dicke Männerhardware raus. :tongue: :redface:^^ +1 ;D

davidzo
2020-01-06, 16:52:51
:eek: Wow, die CPUleistung bis 4 Threads ist absolut auf 3700X Niveau, erst darüber scheint der Turbo zu limitieren (wohl TDP bedingt). 8T liegt 16% zurück, 64T dann 37%. Da kann sich Intel aber warm anziehen...


Was mich doch sehr wundert ist aber die Cache latency Ladder. Das sieht ja fast nach nur 8MB Cache aus :freak:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=68884&stc=1&d=1578089583


BTW, ich habe gerade Leos News gelesen und dann meinen Fehler bemerkt.
Es deutet alles auf 8mb Cache hin, nicht 4mb. Vermutlich dann auch mit den besseren Latenzen die mit einem kleinen Cache einher gehen.

Ich bin auf 4MB gekommen, weil Userbenchmark zwischen den Messpunkten falsch interpoliert.

Das ist bei Matisse mit 32mb cache genau so. Alles bis 32mb cache sollte in etwa dieselbe latenz haben, alles ab 32mb dann mehr. Das CSS von userbenchmark interpoliuert da aber eine Bezierkurve rein die so aussieht als wenn der Anstieg schon zwischen 16 und 32mb stattfindet und allmählich ist, was bei Cache-Stufen natürlich blödsinn ist.

Gipsel
2020-01-06, 16:57:29
Das ist bei Matisse mit 32mb cache genau so. Alles bis 32mb cache sollte in etwa dieselbe latenz haben, alles ab 32mb dann mehr. Das CSS von userbenchmark interpoliuert da aber eine Bezierkurve rein die so aussieht als wenn der Anstieg schon zwischen 16 und 32mb stattfindet und allmählich ist, was bei Cache-Stufen natürlich blödsinn ist.Der Latenz geht schon bei >16MB ziemlich sprunghaft hoch (und nicht erst bei 32MB), weil es eben nur 16MB pro CCX sind. Und genauso scheint Renoir 4MB pro CCX zu haben (also dann insgesamt 8MB, wenn die Messung echt ist und es genau so wie bisher bei Zen2 organisiert ist).

LasterCluster
2020-01-06, 17:00:04
Ich bin auf 4MB gekommen, weil Userbenchmark zwischen den Messpunkten falsch interpoliert.
.

Hast Recht. Ist eigentlich total idiotisch hier willkürlich irgendeine Kurve hinzufitten. Ein simples Balkendiagramm für die einzelnen Messpunkte hätte es auch getan....

davidzo
2020-01-06, 17:08:16
Der Latenz geht schon bei >16MB ziemlich sprunghaft hoch (und nicht erst bei 32MB), weil es eben nur 16MB pro CCX sind. Und genauso scheint Renoir 4MB pro CCX zu haben (also dann insgesamt 8MB, wenn die Messung echt ist und es genau so wie bisher bei Zen2 organisiert ist).
Mag sein, bei MT Anwendungen skaliert es dann wie 8MB cache, bei ST nur wie 4mb Cache.

Zen2 kann durchaus für die APU ein wenig aufgehübscht worden sein, vielleicht ist der 8-Kern CPU-Teil nur noch ein CCX.

Wäre geil, dann würde man weniger inifnty fabric brauchen = gesunkener idle Verbrauch und hätte nebenbei einen monolitischen 8mb cache der auch für einzelne cores zur Verfügung steht.
Es deutet aber alles daraufhin dass man an der 4C-CCX-Struktur nichts aufgebrochen hat.

Gipsel
2020-01-06, 17:16:39
Mag sein, bei MT Anwendungen skaliert es dann wie 8MB cache, bei ST nur wie 4mb Cache.So allgemein stimmt das nicht. Insbesondere, wenn die Threads sich Daten teilen, verhält es sich eher wie nur 4MB oder gar noch schlechter, weil schlimmstenfalls Kerne in unterschiedlichen CCX die gleichen Daten benötigen und die sich das gegenseitig immer wieder aus den Caches hauen. Es hängt also sehr stark davon ab, was die Threads eigentlich genau machen. Allgemeine Aussagen sind da schwer möglich (es gibt durchaus Fälle, wo 4MB für alle Kerne besser skalieren als 16+16MB für zwei Gruppen von Kernen).

Berniyh
2020-01-06, 17:24:51
Hast Recht. Ist eigentlich total idiotisch hier willkürlich irgendeine Kurve hinzufitten. Ein simples Balkendiagramm für die einzelnen Messpunkte hätte es auch getan....
Das ist ein Spline o.ä.
Dient nur der Darstellung und der Führung der Augen, insbesondere bei mehreren Linien in einem Diagramm.
Ist eigentlich völlig normal, zumindest im wissenschaftlichen Bereich.

mboeller
2020-01-06, 17:25:00
So allgemein stimmt das nicht. Insbesondere, wenn die Threads sich Daten teilen, verhält es sich eher wie nur 4MB oder gar noch schlechter, weil schlimmstenfalls Kerne in unterschiedlichen CCX die gleichen Daten benötigen und die sich das gegenseitig immer wieder aus den Caches hauen. Es hängt also sehr stark davon ab, was die Threads eigentlich genau machen. Allgemeine Aussagen sind da schwer möglich (es gibt durchaus Fälle, wo 4MB für alle Kerne besser skalieren als 16+16MB für zwei Gruppen von Kernen).


und wie verhält es sich dann mit den Daten im L2-Cache?

Ryzen2 CPUs haben ja 512KB L2-Cache. Wenn der komplett im L3 gespiegelt wird dann sind das bei 8 Kernen schon 4MB.

|MatMan|
2020-01-06, 17:37:52
Das ist ein Spline o.ä.
Dient nur der Darstellung und der Führung der Augen, insbesondere bei mehreren Linien in einem Diagramm.
Ist eigentlich völlig normal, zumindest im wissenschaftlichen Bereich.
Im pseudo-wissenschaftlichen Bereich ist das vielleicht üblich. Als guter bzw. "richtiger" Wissenschaftler macht man sich erst Gedanken, ob es Sinn macht (d.h. korrekt ist) Messpunkte zu verbinden und wenn ja, wie. In Fall hier macht es ganz klar keinen Sinn da irgendeine Art von Linie hinein zu fitten.

Gipsel
2020-01-06, 17:56:43
und wie verhält es sich dann mit den Daten im L2-Cache?

Ryzen2 CPUs haben ja 512KB L2-Cache. Wenn der komplett im L3 gespiegelt wird dann sind das bei 8 Kernen schon 4MB.Der wird nicht im L3 gespiegelt. Im L3 steht nur, was aus dem L2 verdrängt wurde (Victim Cache). Insbesondere bei einem verkleinertem Cache (nach dem es ja bisher stark aussieht), ist das vermutlich auch die bessere Wahl (weil sonst im L3 kaum noch Platz und das somit ziemliche Verschwendung wäre).

Berniyh
2020-01-06, 18:23:28
Im pseudo-wissenschaftlichen Bereich ist das vielleicht üblich. Als guter bzw. "richtiger" Wissenschaftler macht man sich erst Gedanken, ob es Sinn macht (d.h. korrekt ist) Messpunkte zu verbinden und wenn ja, wie. In Fall hier macht es ganz klar keinen Sinn da irgendeine Art von Linie hinein zu fitten.
Nö, ist auch in der "richtigen" Wissenschaft absolut üblich.
Manchmal schreibt man noch dazu, dass es nur ein Guide ist, aber auch das wird längst nicht immer gemacht.

bloodflash
2020-01-06, 18:37:30
Ich weiss gar nicht, warum sich hier alle so an den Wattzahlen hochziehen.


Mein Dell Latitude 5480 hat nen 45W 7440HQ eingebaut (4c/4t) bei 14".
Das Teil wiegt unter 2 Kg ist relativ schlank und hat allen ZipZap eingebaut, inkl. LTE, NVME-SSD, 16GB und vollständiger Schnittstellenausstattung.


Unter Last bleibt das Ding relativ leise und verliert unter Dauerlast gerade mal 15% an Leistung, wird dann zwar hörbar, dass wird im Alltag aber durch Umgebungsgeräusche übertönt.


Ohne Last ist das Gerät genauso gut wie alle U-Teile, leise und stromsparend. Die 12h Laufzeit zeigt es mir auch an, wenn nix passiert, aber unter realen Bedingungen sind da auch nur 6h drin bei konstanter Benutzung, unterLast wahrscheinlich nur 2-3h.



Diese ganzen U-Geräte mit Ihren 15mm Gehäuse und riesigen Akkus zeigen zwar mal 17h an, aber im Realbetrieb wird das auch nicht grossartig mehr, nur werden sie laut, heiss und werden gnadenlos runtergetaktet.


Dann lieber einen 35W-Ryzen im 23mm Gehäuse, der auch mal Last auf CPU oder GPU verträgt und bei Last auf beiden gut performt.


Besser als 1.x GHz Intel-CPUs mit Grafikleistung von vorgestern und Throttling bis zum Abwinken.



Wenn nur die OEMs mal vernünftige Designs und Konfigurationen in Masse und jeder Preisklasse anbieten würden.

LasterCluster
2020-01-06, 19:16:50
Nö, ist auch in der "richtigen" Wissenschaft absolut üblich.
Manchmal schreibt man noch dazu, dass es nur ein Guide ist, aber auch das wird längst nicht immer gemacht.

Gibt halt auch in der Wissenschaft große Qualitätsunterschiede und so eine Darstellung wird bei jedem Paper die Referees auf den Plan rufen, da die Glättung/der Fit features fabriziert, die einfach nicht da sind (Man beachte vor allem den overshoot nach 32mb bei Matisse wo die Latenz kurz wieder abfällt). Ein "guide for the eye" sollte aber exakt das Gegenteil tun, nämlich die relevanten features hervorheben.

mksn7
2020-01-06, 19:28:55
Gibt halt auch in der Wissenschaft große Qualitätsunterschiede und so eine Darstellung wird bei jedem Paper die Referees auf den Plan rufen, da die Glättung/der Fit features fabriziert, die einfach nicht da sind (Man beachte vor allem den overshoot nach 32mb bei Matisse wo die Latenz kurz wieder abfällt). Ein "guide for the eye" sollte aber exakt das Gegenteil tun, nämlich die relevanten features hervorheben.

Stimme ich hundert prozent zu. Ich behaupte auch dass in einer richtigen Wissenschaft Interpolation mit splines ein no go ist. Manche referees beschweren sich schon wenn man überhaupt nur eine Linie zwischen Messpunkten zieht, und damit Werte für dazwischen suggeriert die nicht gemessen worden sind. Finde ich aber bei (quasi) kontinuierlichen Daten wie hier data set size sinnvoll und leichter zu sehen.

Mangel76
2020-01-06, 19:59:48
Stimme ich hundert prozent zu. Ich behaupte auch dass in einer richtigen Wissenschaft Interpolation mit splines ein no go ist. Manche referees beschweren sich schon wenn man überhaupt nur eine Linie zwischen Messpunkten zieht, und damit Werte für dazwischen suggeriert die nicht gemessen worden sind. Finde ich aber bei (quasi) kontinuierlichen Daten wie hier data set size sinnvoll und leichter zu sehen.

Nur, wenn der Verlauf auch annähernd kontinuierlich ist. Das dürfte hier nicht der Fall sein. Aber genug OT! Zurück zu Zen2!

mironicus
2020-01-06, 20:00:48
Wohl schon etwas zu früh. Unbox Therapy hat auf Youtube bereits ein Renoir-Gaminglaptop vorgestellt. Technische Daten gibt es im Video. Ryzen 4900HS. Ein 14 Zoll Gaming-Laptop mit RTX 2060.

https://www.youtube.com/watch?v=1n5cBDycLWc

BoMbY
2020-01-06, 20:05:49
"7nm Renoir 4900HS Module CPU"?

basix
2020-01-06, 20:08:58
"7nm Renoir 4900HS Module CPU"?

Oder ...CPU Module ;)

mironicus
2020-01-06, 20:09:07
Cool ist doch der Form Faktor. 14 Zoll Gaming-Notebook, 120 Hz WQHD, 1.6 KG, 10 Stunden Akkulaufzeit. Diese Power gab es noch nie in solch einem kleinen Format. Wird bestimmt nicht billig. Das ist übrigens eine richtige Nische, die Asus da abdeckt, denn ähnliche Notebooks dieser Art gibt es bis jetzt noch gar nicht.

Das Video bricht wohl keine NDA, da die Specs der AMD-CPU nicht genannt werden.

Auf jeden Fall kann man jetzt sicher sein, das Renoir heute abend vorgestellt wird.

Grendizer
2020-01-06, 20:25:59
Braucht man bei 14 Zoll WQHD. Da hinterfrage ich die Sinnhaftigkeit beim Spielen. Am Desktop habe ich auch 4k auf 32 Zoll und WQHD auf 27 Zoll. Aber auf dem 15,6 Zoll Notebook reichen mir FHD locker, da brauche ich nicht mehr.

Screemer
2020-01-06, 20:27:33
Kann man sich das AA sparen.

Grendizer
2020-01-06, 20:28:28
Ja ... aber trotz Win 10 und Skalierung werden normale Anwendungen schnell zur Qual. Und auch viele Spiele haben dann extrem kleine Textboxen.

mironicus
2020-01-06, 20:32:53
Ist wohl konfigurierbar, Full HD dürfte es auch geben.

Das Teil dürfte CPU-seitig wohl mindestens so schnell bzw. wahrscheinlich schneller sein als ein Macbook Pro mit Intel 8 Kern-Chip und die Anwendungsmöglichkeiten sind auch vielfältiger wegen der schnelleren NVidia-Grafik.

Hier ist ein weiterer Bericht über das ASUS ZEPHYRUS G14 auf Youtube, leider nur in Spanisch.
https://youtu.be/LW7ybOc3-pk?t=88

Der Typ aus dem spanischen Video hat das Laptop geöffnet. Der NVidia-Chip ist deutlich an der Größe erkennbar (445 nm) der Renoir-Chip rechts daneben ist viel kleiner (über 200 nm nach Augenmaß) Außerdem lässt sich in dem Notebook sogar noch der Speicher per SO-DIMM erweitern.

Linmoum
2020-01-06, 21:03:49
The Yoga Slim 7 being discussed today at CES with AMD’s Ryzen 4000 inside is a 14-inch display device featuring a 1920x1080 IPS display, offering up to 16 GB of LPDDR4X memory, up to a 1 TB NVMe SSD, two USB 3.2 ports, one multi-mode Type-C port, 802.11ac WiFi, and an IR camera, all for 14.9 mm thickness (0.58 inches).https://www.anandtech.com/show/15282/ces-2020-lenovo-yoga-slim-7-with-amd-4000-apu-inside-coming-march

mironicus
2020-01-06, 21:04:41
Ha! Noch ein 14 Zollgerät! (Posting über mir).

N-TV Bericht über das Laptop.

https://www.n-tv.de/mediathek/videos/technik/So-sieht-das-neue-Gaming-Laptop-von-Asus-aus-article21490883.html

Grendizer
2020-01-06, 21:18:01
Sind 14 Zoll Modelle echt so begehrt ? Ich meine.... kein Nummernpad, das ist doch grausam. Zumindest für mich...:freak:

Edit: ok Apple Geräte ... ja sind sie, ich vergas...

mironicus
2020-01-06, 21:24:17
Ein Apple-Mitarbeiter würde sich wohl eher fragen: "Warum ist das RAM nicht verlötet? Warum ist die SSD nicht verlötet? Dann könnte man das Notebook für 7000 Euro verkaufen." :D

Das Asus 14 Zoll-Modell ist imho ein Showcase-Modell, ein Paradebeispiel was durch Renoir jetzt möglich wird.

Beim Lenovo Yoga kriegt das Ryzen 4000-Modell übrigens nur ein Full HD-IPS Panel, während das deutlich teurere Icelake-Modell auch mit Ultra HD-Panel erhältlich ist + zusätzliche NVidia MX. Bei Ryzen 4000 ist die zusätzliche Grafik nicht nötig. :)

Zossel
2020-01-06, 21:35:41
Ein interessanter Zug wäre es wenn der RAM-Kontroller GDDR unterstützen würde, geht ja in den Konsolen schon seit Jahren :-)

SKYNET
2020-01-06, 22:05:12
Sind 14 Zoll Modelle echt so begehrt ? Ich meine.... kein Nummernpad, das ist doch grausam. Zumindest für mich...:freak:

Edit: ok Apple Geräte ... ja sind sie, ich vergas...

Das 15.6" habe ich nur wegen photoshop, zum musik machen habe ich 14" und für alles andere 12"... Und das 12" ist dabei nichtmal wirklich langsamer als das 15.6", mit über 9h laufzeit ohne externe stromversorgung und 11h wenn ich die CPU ihres turbos beschneide

M4xw0lf
2020-01-06, 22:14:03
Sind 14 Zoll Modelle echt so begehrt ? Ich meine.... kein Nummernpad, das ist doch grausam. Zumindest für mich...:freak:

Edit: ok Apple Geräte ... ja sind sie, ich vergas...
Ich hatte immer 14" Laptops und sehe aktuell keinen Grund je was anderes zu nehmen; für mich die ideale Laptop-Größe.

Linmoum
2020-01-06, 22:38:44
3990X laut Videocardz ab dem 07.02 für $3950. Die $40 mehr hätten sie auch noch mitnehmen können. ;D

Monsta
2020-01-06, 22:44:12
Sind 14 Zoll Modelle echt so begehrt ? Ich meine.... kein Nummernpad, das ist doch grausam. Zumindest für mich...:freak:

Edit: ok Apple Geräte ... ja sind sie, ich vergas...


Ich finde 14 Zoll für unterwegs perfekt, leicht und viel Fläche auf dem Schirm. Für Zuhause finde ich 15 Zoll klasse.
Aber nen Nummernpad, ich bin ja kein Kassierer, man sitzt auch nicht richtig gerade vor nem Notebook mit Nummernpad.
Ich nutze am Pc auch 10 Keyless. Habe so mehr platzt auf dem Schreibtisch, und nutzen tu ich sie eh nie.

w0mbat
2020-01-06, 23:08:21
Livestream ist... äh... live: https://www.youtube.com/watch?v=zUeo7kUzn_8

Mayhem
2020-01-06, 23:11:50
Jopp... Chip sieht schonmal super aus! :biggrin:

Linmoum
2020-01-06, 23:15:31
https://i.gyazo.com/d814bf5b4e6ac91d5b615756295e5f06.jpg
https://i.gyazo.com/4e2f205b18af1f8f7c1166b6fbf5279f.jpg

unl34shed
2020-01-06, 23:15:35
was haben die mit den Vega CUs gemacht? 59% prformance improvement?

w0mbat
2020-01-06, 23:15:40
Vega ist jetzt angeblich 59% effizienter. Mehr ST-Perf als Ice Lake. 90% mehr MT-Perf als Ice Lake.

LasterCluster
2020-01-06, 23:17:02
+124% perf. per Watt...krass

Wex
2020-01-06, 23:20:39
Moment, nur 8 CU in der Vega APU?

DrFreaK666
2020-01-06, 23:20:44
was haben die mit den Vega CUs gemacht? 59% prformance improvement?

Sind das noch Vega-Chips? Die heißen ja nur Radeon-Cores wenn ich mich recht erinnere

mironicus
2020-01-06, 23:20:56
Der 4800u ist der reine Wahnsinn, der dürfte mindestens so schnell sein wie ein 9750H, in Cinebench bestimmt noch schneller.

unl34shed
2020-01-06, 23:21:36
Su hat Vega Cores gesagt.

Linmoum
2020-01-06, 23:21:39
Ja, es ist immer noch Vega, wie Su auch sagte.

LasterCluster
2020-01-06, 23:21:57
Vlt auch eine Art Workgroup, also 16CU=2*8 Radeon Cores

Unicous
2020-01-06, 23:22:21
FreeSync Premium Pro.:freak:

Grendizer
2020-01-06, 23:22:59
Die GPU Vorstellung ist schwach. Vor allem hat die eine furchtbare Stimme.

Isen
2020-01-06, 23:23:50
Hab den Bass schon hoch gedreht, aber das schrillt nur so :D

Gipsel
2020-01-06, 23:25:11
Die GPU Vorstellung ist schwach. Vor allem hat die eine furchtbare Stimme.Nicht jeder kann gut Präsentationen durchziehen, selbst mit Übung. Will Dich mal sehen ;).

DrFreaK666
2020-01-06, 23:25:36
5600XT *schnarch*

Grendizer
2020-01-06, 23:26:44
Nicht jeder kann gut Präsentationen durchziehen, selbst mit Übung. Will Dich mal sehen ;).

Es muss nicht immer der Chef präsentieren, wenn er es nicht kann.:rolleyes:

unl34shed
2020-01-06, 23:28:07
Die frage ist eher "what about 4k?"

sunshine
2020-01-06, 23:28:45
Dachte ich mir auch :-D

Gipsel
2020-01-06, 23:29:05
Es muss nicht immer der Chef präsentieren, wenn er es nicht kann.:rolleyes:Mal sehen, wer es nächstes Jahr macht. :)

Daredevil
2020-01-06, 23:29:20
Die frage ist eher "what about 4k?"

+++++++++++
Die ziehen den Spannungsbogen doch nicht um Fullhd und wqhd und lassen 4K gleich fallen, da MUSS was kommen.

Troyan
2020-01-06, 23:29:28
Ich fand sie sympathisch.

Grendizer
2020-01-06, 23:29:46
279 für die 5600 XT..

Unicous
2020-01-06, 23:30:00
Könnte interessant werden, das ist der ehemalige Alienware-Chef.

mironicus
2020-01-06, 23:30:46
Und nebenbei auch noch die 5600M und 5700M für den Mobilemarkt.

Troyan
2020-01-06, 23:31:54
1. Halbjahr. Das ist DoA im Notebookmarkt. Die ganzen Ryzen-Notebooks kommen mit nVidia.

davidzo
2020-01-06, 23:33:45
8CUs, why??:eek::eek:

und wieso heißen die noch vega wenn die 50% schneller pro CU sind? kann man das nicht wenigstens rdna light nennen oder so, wenn so gravierende Änderungen drin sind?

sulak
2020-01-06, 23:35:43
Warum isn da ne GammelVega drin, Chiplets erst vorbeten und dann kommt hinten rum der alte Kram. Paar RDNA CUs müssten sich doch verbauen lassen, oder sind dann die "Content Creators" am weinen...

Mayhem
2020-01-06, 23:35:47
AMD ... ich komme!
Schneller als desktop 9700k, jedoch bei 45W. 10h battery life.

Gipsel
2020-01-06, 23:36:55
8CUs, why??:eek::eek:Mehr hängen sowieso an der Bandbreite, insbesondere wenn die 8CUs noch schneller takten/sind als die alten.

Odal
2020-01-06, 23:37:14
Warum isn da ne GammelVega drin, Chiplets erst vorbeten und dann kommt hinten rum der alte Kram. Paar RDNA CUs müssten sich doch verbauen lassen, oder sind dann die "Content Creators" am weinen...

Das war doch klar das das kein IF wird weil zu Stromhungrig und auch zu groß

davidzo
2020-01-06, 23:37:21
Mit dem Asus Zephyr haben die jetzt einen exklusiven design-win. Nicht schlecht, das hat man mit den ersten beiden ryzen apus nicht geschafft.

mironicus
2020-01-06, 23:37:48
Seht ihr ich hatte recht, sie haben das Asus Notebook als "Showcase" gezeigt. Und der 4800H dürfte alles schlagen, was Intel im Mobilebereich derzeit bietet.

SKYNET
2020-01-06, 23:39:26
Vega ist jetzt angeblich 59% effizienter. Mehr ST-Perf als Ice Lake. 90% mehr MT-Perf als Ice Lake.

hatte meine quelle doch recht "mit 16 CUs ist die vega so schnell wie ne 280(non-X)"... nur doof das es jetzt nur 8 CUs sind X-D

Troyan
2020-01-06, 23:39:30
Haben alle mobilen CPUs eine iGPU?

davidzo
2020-01-06, 23:40:50
Sind 14 Zoll Modelle echt so begehrt ? Ich meine.... kein Nummernpad, das ist doch grausam. Zumindest für mich...:freak:

Edit: ok Apple Geräte ... ja sind sie, ich vergas...

Du wurdest erhört, das Dell G5 SE (anscheinend 15") hat ein Numpad. :biggrin:

SKYNET
2020-01-06, 23:41:20
Haben alle mobilen CPUs eine iGPU?

wüsste keine aktuelle mobile CPU(weder AMD noch Intel), die keine IGP hat.

Grendizer
2020-01-06, 23:42:15
Du wurdest erhört, das Dell G5 SE (anscheinend 15") hat ein Numpad. :biggrin:

Jepp ... mal schauen, wo das Ding dann im Preis rauskommt.

Wex
2020-01-06, 23:42:27
hatte meine quelle doch recht "mit 16 CUs ist die vega so schnell wie ne 280(non-X)"... nur doof das es jetzt nur 8 CUs sind X-D

Haha, autsch! :freak:

Linmoum
2020-01-06, 23:42:33
One more, 3990X. Yeah.

w0mbat
2020-01-06, 23:42:38
One more thing...

Grendizer
2020-01-06, 23:43:07
Kein Big Navi ... bitter.

Complicated
2020-01-06, 23:43:35
Preis wurde doch gesagt...glaub 800,- ?

Linmoum
2020-01-06, 23:44:04
Kein Big Navi ... bitter.Hat niemand auch nur ernsthaft mit gerechnet, weil's sinnlos war.

Grendizer
2020-01-06, 23:44:19
Preis wurde doch gesagt...glaub 800,- ?


starts at...

w0mbat
2020-01-06, 23:45:42
4000€ :ugly:

Grendizer
2020-01-06, 23:46:07
So richtig begeistert ist das Publikum auch nicht, oder empfinde ich das nur so ?

Wex
2020-01-06, 23:47:09
Tolle Namen = Preisgebung ! ^^

Linmoum
2020-01-06, 23:47:10
So richtig begeistert ist das Publikum auch nicht, oder empfinde ich das nur so ?Solange man keine Jubelperser hat die bei jedem zweiten Wort kreischen wie blöde (Grüße gehen raus an Nvidias Pascal-Vorstellung damals) ist mir alles recht.

unl34shed
2020-01-06, 23:47:32
ja warum nicht eine Desktop 64 Core CPU, wenn man es kann.

Isen
2020-01-06, 23:48:12
So richtig begeistert ist das Publikum auch nicht, oder empfinde ich das nur so ?

Jubelperser sind das schlimmste.

Grendizer
2020-01-06, 23:48:53
Weil man mit dem gleichen Produkt 2000 Euro mehr Umsatz macht.

Mehr wie 1999 würde für einen Ryzen doch nicht gehen.

Grendizer
2020-01-06, 23:51:36
Hmmm..... wann wäre der nächste Termin, wo man was über 4K Grafikkarten von AMD hören könnte ?

Big Lebowsky
2020-01-06, 23:51:41
ja warum nicht eine Desktop 64 Core CPU, wenn man es kann.

Warum bloß hat AMD sich den Namen "Bulldozer" nicht für die aktuelle Prozessorgeneration aufgehoben :biggrin::biggrin:.

Brillus
2020-01-06, 23:54:08
Sind das noch Vega-Chips? Die heißen ja nur Radeon-Cores wenn ich mich recht erinnere

Lisa hat gesagt sind verbesserte Vega.

dildo4u
2020-01-06, 23:55:09
Scheint Vega mit extrem hohen Takt zu sein.

LasterCluster
2020-01-06, 23:55:53
Der 4800H@45W soll 10% mehr Gaming perfomance haben als der i7-9700k@95W.

Linmoum
2020-01-06, 23:56:34
Der Takt ist auf jeden Fall ordentlich nach oben gegangen, beim 4800U sind es (max.) 1750MHz statt wie noch bei Picasso maximal 1400MHz.

Generell beeindruckend, was sie da aus Vega wohl noch rausgeholt haben. Und selbst das scheint problemlos für Intel zu reichen, obwohl Navi in erster Gen schon ein massiver Sprung in der Performance war.

Wex
2020-01-06, 23:56:55
Modell Kerne/Threads Basistakt Turbotakt Grafik Grafiktakt TDP
Ryzen 7 4800U 8/16 1,8 GHz 4,2 GHz Vega8 1.750 MHz 15 Watt
Ryzen 7 4700U 8/8 2,0 GHz 4,1 GHz Vega7 1.600 MHz 15 Watt
Ryzen 5 4600U 6/12 2,1 GHz 4,0 GHz Vega6 1.500 MHz 15 Watt
Ryzen 5 4500U 6/6 2,3 GHz 4,0 GHz Vega6 1.500 MHz 15 Watt
Ryzen 3 4300U 4/4 2,7 GHz 3,7 GHz Vega5 1.400 MHz 15 Watt

pic:
https://i.imgur.com/0GZCY8D.png

quelle:
https://www.computerbase.de/2020-01/amd-ryzen-4000-renoir-apu-notebook/

Brillus
2020-01-06, 23:57:56
Haben alle mobilen CPUs eine iGPU?
Rein aus Laufzeit Gründen ist es sinnvoll, da man dann Desktop dGPU einfach ganz ausschalten kann.

mironicus
2020-01-07, 00:01:37
Hier ein ausführlicher Artikel von Computerbase zu den Mobile-CPUs.
https://www.computerbase.de/2020-01/amd-ryzen-4000-renoir-apu-notebook/

Interessant ist Smartshift, die interne GPU kann die diskrete Grafik dabei unter die Arme greifen.

reaperrr
2020-01-07, 00:07:55
und wieso heißen die noch vega wenn die 50% schneller pro CU sind? kann man das nicht wenigstens rdna light nennen oder so, wenn so gravierende Änderungen drin sind?
Weil das größtenteils vom höheren Takt kommt. Selbst Picasso's IGP läuft in Laptops unter Last oft nur um ~600MHz. Wenn die Renoir-Vega mit 8 CUs ~1000-1100 MHz in Laptops schafft, hast du schnell die 59% mehr Performance.

Die einzigen "IPC-Verbesserungen" bestehen vermutlich darin, dass es insgesamt mehr L1- und L2-Cache je CU gibt als bei RR/PC.

basix
2020-01-07, 00:08:04
Also bei RDNA und 1080p und 1440p habe ich mir gedacht "und jetzt kommts, 4K" :D Aber nö, doch nicht. Mich würde jetzt die TBP der 5600XT und 5600M interessieren.

Zum Dell Notebook: Startend bei 799$ für ein Ryzen 4000H Series + 5600M finde ich als sehr fair was Bang for the Buck anbelangt.

Was ich ein wenig schade finde ist, dass Q1/2020 Notebooks noch eher spärlich gesäht zu finden sind. Erst ab Q2 nimmt das so richtig fahrt auf.

davidzo
2020-01-07, 00:08:46
Mehr hängen sowieso an der Bandbreite, insbesondere wenn die 8CUs noch schneller takten/sind als die alten.
Die Bandbreite hat sich bei LPDDR4X um biszu 77% erhöht, aus dem Bandbreitenlimit ist man selbst mir DDR4 3200 längst raus, zumindest wenn die Hersteller jetzt endlich immer 2 Module verbauen. Und es gibt jetzt schon genügend Spiele wo Vega11 schon schneller als Vega8 ist.


Scheint Vega mit extrem hohen Takt zu sein.

Jo, da weiß man genau wo die 59% mehr leistung pro CU her kommen.


Es sieht wirklich so aus, als hat man die APU Strategie die man mit Llano angefangen hat nun endgültig aufgegeben. Man baut doch nur noch CPUs mit office-IGP und verkauft dann halt nen diskreten Grafikchip dazu. Soll Intel sich doch mit teuren Riesenapus mit edram und co aufreiben...

Wenn das mit dem TDP sharing wirklich funktioniert, dann ist das ja auch nicht sehr weit entfernt von nem cpu und gpu chiplet auf einem package was sich hier manch einer gewünscht hat. Nur dass man dem Kunden das nicht erklären muss und den seit Jahren beliebten Zusatz "discrete graphics" dazu schreiben kann, sowie billigen gddr6 statt HBM verlöten kann.
Eine starke CPU mit schwacher, aber modularer Grafik ist vermutlich genau das was sich die OEMs seit Jahren von AMD wünschen. Einen echten Intel-Counter halt. Nicht nur Besser in anderen Nischen wie Grafik, gaming, sondern in Intels Kerndisziplinen.

Aber schon enttäuschend dass dann ausgerechnet die RDNA mobile chips nicht rechtzeitig bereit standen und überall nvidia Turing drin steckt.

LasterCluster
2020-01-07, 00:10:03
SmartShift ist dabei so etwas wie Optimus, welches bei Nvidia seit Jahren verfügbar ist. Ein gemeinsames Powermanagement soll die zur Verfügung stehende Gesamtleistung je nach Bedarf der CPU, integrierten GPU oder auch der diskreten Lösung zur Verfügung stellen. SmartShift wird als erstes im Dell G5 ab Anfang Q2 erhältlich sein, das die H-Serie mit einer RX 5600M kombiniert.

Von CB.

Edit: @Davidzo Sehe ich auch so. Sollen sie besser nach Synergien zwischen eigenen dGPUs und APUs suchen. SmartShift ist vielleicht der Anfang

mironicus
2020-01-07, 00:11:12
https://www.pcgameshardware.de/Notebook_Laptop-Hardware-201330/News/Asus-ROG-Zephyrus-G14-1340504/

Asus hat sich das exklusive Recht gesichert das effizientere CPU-Modell Ryzen 4800HS für 6 Monate verwenden zu können.

Linmoum
2020-01-07, 00:11:40
Mich würde jetzt die TBP der 5600XT und 5600M interessieren.150W TBP bei der XT und laut CB für die M "ab 60 Watt".

DrFreaK666
2020-01-07, 00:14:54
Was hindert AMD daran Navi in ihre APUs einzubauen?

Linmoum
2020-01-07, 00:16:05
Time to Market sehr wahrscheinlich.

basix
2020-01-07, 00:16:58
150W TBP bei der XT und laut CB für die M "ab 60 Watt".

Ui, 150W sind irgendwie ein wenig viel? Ich hätte aufgrund der niedrigen Taktraten und nur 192 Bit SI eher so was um 120-130W erwartet.

dildo4u
2020-01-07, 00:18:30
Was hindert AMD daran Navi in ihre APUs einzubauen?

Damit hat man was für nächstes Jahr,Intel hat eh keine Chance.
Die IGP werden eh durch die Bandbreite gebremst, macht kein Sinn bessere GPUs zu verbauen.

Grendizer
2020-01-07, 00:19:20
Smartshift war doch aber auch was mit übertakten der CPU oder GPU, je nachdem, was gebraucht wird. Optimus ist nur für den Flackerlosen wechsel zwischen IGP und GPU zuständig, wenn man mehr GPU Power braucht und dann statt der IGP der nVidia Chip angeworfen wird.

davidzo
2020-01-07, 00:20:52
Was hindert AMD daran Navi in ihre APUs einzubauen?

Time to Market sehr wahrscheinlich.

Oder Diesize. So winzig sieht der Chip jetzt nicht aus und 7nm ohne EUV solls ehr teuer sein wegen den vielen Masken...

btw, es gibt auch kein PCIe4 - entweder auch wegen der Diesize oder wegen der Energieeffizienz...

dildo4u
2020-01-07, 00:25:22
Asus verbaut ein 35 statt 45 Watt Modell.


jK5dL74wstQ

MR2
2020-01-07, 00:29:51
Jo, das exclusiv für Asus 6 Monate. Coole Scheiße!

Grendizer
2020-01-07, 00:32:42
damit macht sich AMD keine Freunde bei Dell, Lenovo, HP usw.

basix
2020-01-07, 00:36:59
Die IGP werden eh durch die Bandbreite gebremst, macht kein Sinn bessere GPUs zu verbauen.

Navi hätte eine viel bessere Bandbreiteneffizienz. Das würde sehr viel Sinn machen ;)

Hauptgrund wird aber Time to Market und Flächenbedarf sein. RDNA ist deutlich grösser pro CU. Performance/mm2 ist vermutlich vergleichbar, somit kein Nachteil mit Vega. Ausserdem hat man Apple und Konsorten schon mit der SW-Infrastruktur / stabile Workstation Applikationen.

damit macht sich AMD keine Freunde bei Dell, Lenovo, HP usw.
Kommt immer auf den Preis an ;) Evtl. gar nicht so attraktiv, die meisten Volumen werden eh mit den -U Varianten gemacht. Ausserdem wird sich AMD den 4800HS und die Exklusivität irgendwie bezahlen lassen.

dildo4u
2020-01-07, 00:37:38
Ist das nicht nur Marketing?Normal lässt sich bei diesen Chips doch das TDP Konfigurieren.
Kein Grund warum 45 Watt Modelle nicht mit weniger laufen sollten.
Wo ist Navi besser mit Bandbreite?

iuno
2020-01-07, 00:42:35
Mich wundert etwas, dass so viele Modelle kein SMT haben. Sollte das nicht gerade im Notebook fuer Effizienz sinnvoll sein?

davidzo
2020-01-07, 00:44:03
damit macht sich AMD keine Freunde bei Dell, Lenovo, HP usw.
Ich glaube nicht dass es die überraschen wird. Denen hat AMD sicher denselben Vorschlag gemacht: Baut ein exklusives Premiumgerät und wir machen gemeinsames Marekting um das Ding zu pushen. Dell, Lenovo, HP hatten aber nicht genug Eier in der Hose um Intel so an zu pissen...

Daredevil
2020-01-07, 00:50:07
Was hindert AMD daran Navi in ihre APUs einzubauen?
Zumindest bei niedrigen Taktraten und Verbrauch ist 7nm Vega im Vorteil, das habe ich mal zwischen einer VII und 5700xt getestet.
Bei 1200mhz im MaxUV Test haut Vega ca. 15% mehr Leistung raus bei weniger Verbrauch. Ab 1600 MHz zieht Navi dann davon mit der Perf pro Watt.

basix
2020-01-07, 00:52:03
Mich wundert etwas, dass so viele Modelle kein SMT haben. Sollte das nicht gerade im Notebook fuer Effizienz sinnvoll sein?

Jepp. Aber so bringt man einen sinnvollen Produkt Stack hin. Bei Intel war alles von 8250U bi 8650U bei MT faktisch gleich schnell, da rein powerlimitert.

Besonders beim 4300U schmerzt aber 4C/4T. Hier hätte es schon 4C/8T sein können. Aber damit treibt man die Kundschaft zu 4500U und 4600U --> höhere Margen.

iuno
2020-01-07, 00:57:21
Zumindest bei niedrigen Taktraten und Verbrauch ist 7nm Vega im Vorteil, das habe ich mal zwischen einer VII und 5700xt getestet.
Kleinere GPUs waren immer effizienter, da kannst du auch Vega gegen Vega testen. Ist nur relativ unsinnig.

Nightspider
2020-01-07, 00:57:46
Und das mit 8CUs? Wow.

Da kriegt man ja schon Angst vor der zukünftigen APU mit Zen 3, effizienterem Navi (+besserer Bandbreiteneffizienz) + LPDDR5 und besserem Fertigungsprozess. :ugly:
Da wird die CPU wohl nochmal 20-25% schneller und die GPU dank viel mehr effektiver Bandbreite nochmal um mindestens 50-70% zulegen. :eek:

Dumme Frage am Rande: Wäre es sooo viel teurer eine highend APU mit Triple Channel RAM anzubieten?

8*Zen2 Kerne + 12CUs + Triple Channel RAM LPDDR4 ? #wunschdenken

Gegen eine Speichermenge von 12GB (3*4GB) hätten bestimmt auch die Wenigsten etwas.

mczak
2020-01-07, 00:59:31
Mehr hängen sowieso an der Bandbreite, insbesondere wenn die 8CUs noch schneller takten/sind als die alten.
Das ist trotzdem ein sehr interessanter Schritt, denn dass man gerade für die 15W-Modelle mehr CUs verbaut hat als wirklich sinnvoll sind ist ja nicht nur bei RR so sondern hat bei AMD eine lange Tradition. Da hat offenbar ein Umdenken stattgefunden und die GPU-Performance auf dem Desktop (65W) bzw. Schleppbook (45W) ist nicht mehr so wichtig.

edit: Offensichtlich hat AMD da wirklich sehr darauf geachtet dass das Teil einigermassen klein bleibt. Anandtech nennt etwa 150mm^2 - eine so kleine APU hatte AMD noch nie (abgesehen von den low-end Abkömmlingen). Da musste halt der L3 und ein paar CUs dran glauben (wenn die 150mm^2 hinkommen wäre selbst mit dem doppelten L3 und 4 CUs mehr der Chip immer noch locker unter 200mm^2 geblieben). Damit bewegt man sich dann auch erstmals in ähnlichen Regionen wie intel - für ICL 4C werden 122mm^2 genannt, würde intel da 8 Kerne verbauen wäre Renoir nicht mehr grösser.

Das gesamte Lineup der 15W CPUs finde ich auch einigermassen erstaunlich, insbesondere dass nur 2 der 5 Chips SMT bieten - das sind ja Zustände wie bei intel auf dem Desktop... Insbesondere gibt es nicht mal eine 4-Kern Konfiguration (immerhin hat sich AMD da für bloss 1 CCX entschieden...) mit SMT. Da bin ich aber wirklich sehr gespannt wie sich da die unterschiedlichen Konfigurationen am Ende schlagen (ich bin ja immer noch der Meinung aus Effizienzgründen sind Konfigurationen ohne SMT bei 15W eigentlich nicht sinnvoll).

Daredevil
2020-01-07, 01:01:26
Kleinere GPUs waren immer effizienter, da kannst du auch Vega gegen Vega testen. Ist nur relativ unsinnig.
Vega ist aber halt größer als Navi in 7nm. :y
Und wenn man den Takt senkt, sind größere GPUs effizienter.
Einheiten ftw.

amdfanuwe
2020-01-07, 01:11:03
Für Vega in der APU sprechen doch optimiertes Low Power Design und ausgereifte Treiber.
Mit Navi existiert da doch noch nichts für den Mobile Bereich.
Also erstmal mit bewährter Technik rein und nicht wieder die Kunden mit unausgereiften Sachen verstimmen.
Die 8 CUs sind dank höherem Takt und etwas optimierung immer noch schneller als die 10/11 CUs im Picasso und wirkliche Gamingleistung ist mit der IGPU ja doch nicht zu erreichen.
Da kommt wohl erst mehr wenn Stacked RAM auf der APU verfügbar wird.

Der_Korken
2020-01-07, 01:26:44
1,8Ghz Basetakt auf 8 Kerne mit SMT für das 15W-Modell sind echt mal eine Ansage. Da kann Intel bei der MT-Leistung wirklich mal einpacken mit ihren 1,3Ghz auf 4 Kerne, die Ice Lake bietet. Bessere IPC hin oder her. Sind die 10nm so mies oder ist Ice Lake selber so ein "Schluckspecht"?

Die 8CUs überraschen mich dagegen eher leicht negativ. Bei den 15W-Modellen mögen mehr CUs vielleicht keinen Vorteil bringen, weil man selbst 8CUs so niedrig takten muss, dass man immer im Sweetspot ist. Aber bei den 45W-Modellen hätte man auch mehr CUs locker versorgen können, auch wenn viel Mehrleistung durch das Bandbreitenlimit verpufft. Da scheint sich AMD wirklich auf 15W fokussiert zu haben und alles darüber muss dGPU benutzen.

mczak
2020-01-07, 01:56:14
1,8Ghz Basetakt auf 8 Kerne mit SMT für das 15W-Modell sind echt mal eine Ansage. Da kann Intel bei der MT-Leistung wirklich mal einpacken mit ihren 1,3Ghz auf 4 Kerne, die Ice Lake bietet. Bessere IPC hin oder her. Sind die 10nm so mies oder ist Ice Lake selber so ein "Schluckspecht"?

Ich denke nicht dass die tieferen Taktraten von ICL (das betrifft ja auch die Turbotaktraten) gegenüber den älteren intel Chips architekturbedingt sind. Beim Basetakt muss man allerdings berücksichtigen dass das Teil AVX-512 kann - ich schätze mal sonst könnte man doch einen deutlich höheren Basistakt garantieren. Aber selbst dann hätte man wohl immer noch einen tieferen Basistakt für 4 Kerne als AMD für 8... Obwohl ehrlicherweise der Basistakt ja nicht wirklich entscheidend ist.

spotz
2020-01-07, 03:06:25
Wenn AMD jetzt kleinere IGPs verbaut, könnte es doch auch weiterhin einen Markt für dedizierte GPUs wie der MX 150 oder RX 550 geben. Ein extra Grafikchip mit 80 bis 100 mm2 müsste sich doch über zwei, drei Jahre leistungsmässig von der IGP eines Ryzen 5 mit 6 Vega oder zukünftig 6 Navi CUs doch gut genug abgrenzen können, um einen echten Mehrwert zu bieten.

Unicous
2020-01-07, 03:31:31
Die "kleinere" GPU haben sie weil es Fläche einspart und sie mit dem neuen Prozess deutlich höher takten können. Dafür gibt es 4 Kerne mehr und man hat dennoch eine Leistungssteigerung. Mit dem Nachfolger wird es dann zu 99% RDNA2 geben und je nach dem wie groß der Chip wird könnte man dann z.B. "verdoppeln" bzw. "16" CUs bzw. 8 WGPs integrieren. Ich denke nicht, dass AMD die IGP abgeschrieben hat während Intel dieser immer mehr Fläche zugesteht. AMD hat nur anscheinend endlich eingesehen, dass es keinen Sinn macht den Chip mit CUs vollzustopfen die dann an der Bandbreite verhungern. Alles in allem scheint der Chip schon sehr stimmig zu sein.

Ich schätze mal ins Blaue, dass der Chip um die 150mm² groß ist, vielleicht auch etwas mehr, da hätte man einen gut zu produzierenden, konkurrenzfähigen Chip zu Intel, der in ein kleines Package passt. Wie groß sind die PCH von Intel noch mal?

1926? Das war im Juni.:eek:
https://pbs.twimg.com/media/ENpN90jUEAASOYc.jpg

edit:
The new 8 core / 8 CU chip on 7nm is also very small. AMD wouldn’t let us measure it directly, or take pictures before the keynote, but by putting the chip next to a Zen 2 desktop chiplet, I was able to make out that the new APU is pretty much double the size of a single Zen 2 chiplet, and double 74mm2 is 148mm2 or 150mm2 for a round number. Given TSMC’s defect rate of 0.09 per cm2, this would give a yield around 87%.
https://www.anandtech.com/show/15324/amd-ryzen-4000-mobile-apus-7nm-8core-on-both-15w-and-45w-coming-q1

M4xw0lf
2020-01-07, 05:26:42
Uiuiui, Renoir könnte im mobilen Sektor ein noch härterer Gegner für Intel sein als Matisse im Desktop :usweet:

spotz
2020-01-07, 05:54:28
… Mit dem Nachfolger wird es dann zu 99% RDNA2 geben und je nach dem wie groß der Chip wird könnte man dann z.B. "verdoppeln" bzw. "16" CUs bzw. 8 WGPs integrieren. Ich denke nicht, dass AMD die IGP abgeschrieben hat während Intel dieser immer mehr Fläche zugesteht. AMD hat nur anscheinend endlich eingesehen, dass es keinen Sinn macht den Chip mit CUs vollzustopfen die dann an der Bandbreite verhungern. Alles in allem scheint der Chip schon sehr stimmig zu sein. ...

Ich stimme mit dir aus den gleichen Gründen überein das Renoir ein stimmiges Produkt ist. Dieses stimmige Bild würde jedoch Schaden nehmen, wenn der Renoir Nachfolger mit 16 RDNA 2 CUs auf über 200mm² anwüchse, die dann wieder an mangelnder Bandbreite verhungern.

Daher glaube ich das wir in Zukunft erstmal je nach Ryzen Klasse nicht mehr als 6 bis 8 CUs sehen werden. Das gibt wieder Platz im Markt für kleine extra Grafiklösungen mit 80 bis 100 mm² wie aktuell der MX 150 oder RX 550.

Erstmal abwarten ob Intels Grafiklösungen in Tiger Lake vom Preis-Leistungsverhältnis mit Renoir oder auch kleinen dedizierten Grafikchips mithalten kann.

Unicous
2020-01-07, 06:48:20
Das ergibt keinen Sinn denn du unterschlägst, dass Intel seine IGP auch aufstockt und damit auch nicht einfach aufhören wird. Intel kommt mit Ice Lake GPU-seitig Renoir zum Teil schon relativ nah, Tiger Lake wird wohl von 64 EUs auf 96 aufstocken. RDNA greift ja das Problem der zu geringen Bandbreite auf und lastet die CUs besser aus, u.a. haben sie den Cache ja vergrößert.

Seit Jahren stirbt der Einsteigerkarten-Markt weg und du denkst er wird jetzt durch Stagnation seitens AMD wiederbelebt?:confused:

Ich meine nicht mal Nvidia traut sich neue Chips in der Preisklasse aufzulegen, der Großteil wird von Kepler/Maxwell Rebrands ausgefüllt, danach kommt dann Pascal. Im Mobile-Bereich wird die MX150/250 im Großen und Ganzen von der Vega11 geschlagen, danach kommt schon eine 1050.

Warum sollte also Nvidia eine diskrete GPU designen die sowohl von Intel als auch AMD geschlagen wird?

Es ist ja schon Schwachsinn, das diese Einsteiger-GPUs noch mit iGPUs gepaart werden, man gewinnt dadurch rein gar nichts.

AMDs und zukünftig auch Intels GPUs schneiden in AMDs und Nvidias Einsteigerbereich, zukünftig wird es da nur noch Legacy-GPUs geben, rein wirtschaftlich macht es keinen Sinn mehr dort Geld zu investieren.

spotz
2020-01-07, 07:12:23
Nicht wegen der Stagnation bei Renoir, sondern weil AMD gute Gründe hat. Wie steigende Preise in der feineren Fertigung, Speicherbandbreite usw die dann auch evtl Intel betreffen. Nvidia hat mit der MX 150 einen drei(?) Jahre alten Chip der immer noch leistungsfähiger ist als die aktuellen IGPs. Da sollte doch 2020 für Nvidia mehr machbar sein.

Letztendlich ist es nur ein Gedanke, eine Spekulation meinerseits.

dargo
2020-01-07, 07:31:27
Die IGP werden eh durch die Bandbreite gebremst, macht kein Sinn bessere GPUs zu verbauen.
Logik? Wenn ich bsw. mit 5-6 Navi CUs das gleiche wie mit 8 Vega CUs erreiche warum sollte ich Vega CUs verbauen? Time to Market kommt mir da wahrscheinlicher vor.

dildo4u
2020-01-07, 07:38:15
Ihr lasst euch von 3DMark Werten blenden Nvidias MX sind noch massiv vor den IGPs.
Mich wundert es das ihr da auf Intels Marketing reinfällt.

Unicous
2020-01-07, 07:54:24
@spotz

Ich habe dir gerade gesagt, dass Vega11 im Großen und Ganzen MX150 schlägt und du behauptest daraufhun das Gegenteil?:confused:

Die GPU von Renoir ist nochmals leistungsfähiger und das soll jetzt Anreiz für Nvidia sein, Millionen in R&D zu investieren um mit den iGPUs zu konkurrieren?:confused:

GP108 ist 74mm² groß, das ist ca. 1/3 Raven Ridge und der Vergleich hinkt, denn bei den Chips ist noch ein ganze Menge mehr verbaut. Warum also sollte Nvidia einen Chip entwickeln, der zwar insgesamt kleiner ist, aber kaum Mehrleistung bietet, dafür aber VRAM, Stromversorgung etc. braucht und dadurch immer unattraktiver wird. Bislang hatte Nvidia das Glück, dass Intels iGPUs Schrott sind und deswegen gerne noch eine Billig-GPU dazugekauft wurde aber das ändert sich ja zumindest teilweise. Bei den Desktop-Chips sieht man es ja schon, im Mobil-Sektor wird es nicht mehr lange dauern.
Es würde mich sehr wundern, wenn Nvidia nochmal einen neuen Chip auflegt, maximal gibt es einen Rebrand oder einen shrink, aber wozu. Es gibt dafür keinen Anreiz mehr, besonders wenn man bedenkt wie viel Platz so eine GPU auf dem Board wegnimmt

https://i.redd.it/4ana0agj59941.png

ohne wirklich Mehrwert zu liefern.

dildo4u
2020-01-07, 08:27:09
MX350 soll auf 1050 Level sein das ist eine GPU mit 100GB Bandbreite keine IGP ist auch nur in der Nähe.


https://www.notebookcheck.net/NVIDIA-GeForce-MX350-Laptop-Graphics-Card.448881.0.html

basix
2020-01-07, 08:33:38
MX350 soll auf 1050 Level sein das ist eine GPU mit 100GB Bandbreite keine IGP ist auch nur in der Nähe.


https://www.notebookcheck.net/NVIDIA-GeForce-MX350-Laptop-Graphics-Card.448881.0.html

Das bestätigt doch, was Unicous gesagt hat: Rebrand und Legacy HW, kein neuer Chip. Die MX350 wird sicher schneller als die iGPUs sein (MX150 eben nicht wirklich, auch in Games, zumindest ggü. AMD APUs).

Der Clou der MX350 wird aber sein, dass das vermutlich ein 50W Chip werden wird und somit mehr verbraucht als die ganze APU. Eine MX150 braucht auch 25W. Nur für diese GPUs zu integrieren hast du folgende Nachteile: Dicker, schwerer, geringere Akkulaufzeit, teurer oder eine Kombination von allem. Das lohnt sich meistens einfach nicht und vor allem dann nicht, wenn die Leistungssteigerung ggü. der iGPU eher mässig ist. Ein nächster Leistungssprung in diesem Segment wird frühestens mit Ampere kommen. Turing kommt nicht in dieses Segment, da riesiger Chip im Verhältnis zu Pascal.

Unicous
2020-01-07, 08:39:01
LOL. Soll auf 1050 Niveau sein... weil es der 1050 Chip ist.:freak: Was schrieb ich... entweder ein rebrand oder ein shrink. :rolleyes:

Nvidia wird also einen 130mm² Chip gegen eine 150mm² APU antreten lassen. Das wird nicht ewig so weiter gehen.

dildo4u
2020-01-07, 08:46:34
Das bestätigt doch, was Unicous gesagt hat: Rebrand und Legacy HW, kein neuer Chip. Die MX350 wird sicher schneller als die iGPUs sein (MX150 eben nicht wirklich, auch in Games, zumindest ggü. AMD APUs).

Der Clou der MX350 wird aber sein, dass das vermutlich ein 50W Chip werden wird und somit mehr verbraucht als die ganze APU. Eine MX150 braucht auch 25W. Nur für diese GPUs zu integrieren hast du folgende Nachteile: Dicker, schwerer, geringere Akkulaufzeit, teurer oder eine Kombination von allem. Das lohnt sich meistens einfach nicht und vor allem dann nicht, wenn die Leistungssteigerung ggü. der iGPU eher mässig ist. Ein nächster Leistungssprung in diesem Segment wird frühestens mit Ampere kommen. Turing kommt nicht in dieses Segment, da riesiger Chip im Verhältnis zu Pascal.
Klar ist es ein Rebrand aber Vega in 7nm ist auch nicht das Gelbe von Ei,gerade deswegen wirst du dieses Jahr noch massiv besser mit zusätzlicher MX GPU fahren.
Die 5300M scheint eine Klasse drüber zu sein was TDP angeht.

spotz
2020-01-07, 09:11:54
@spotz

Ich habe dir gerade gesagt, dass Vega11 im Großen und Ganzen MX150 schlägt und du behauptest daraufhun das Gegenteil?:confused:

Sorry, hatte ich überlesen. ;(

Als ich das letzte Mal Tests von nem Ryzen 3700u sah, lag der hinter einer MX 150. Daher bin ich gerade etwas überrascht. Hat sich da was verändert oder trügt mich meine Erinnerung?

deekey777
2020-01-07, 09:42:12
Vorgestern: "AMD ist im Nachteil, weil sie keine Sechskern-APU für den mobilen Bereich anbieten."

Heute: "AMD ist im Nachteil, weil sie eine Achtkern-APU für den mobilen Bereich anbieten."

(Den i9-9980HK und ähnliche habe ich ignoriert)

dildo4u
2020-01-07, 09:46:54
Sorry, hatte ich überlesen. ;(

Als ich das letzte Mal Tests von nem Ryzen 3700u sah, lag der hinter einer MX 150. Daher bin ich gerade etwas überrascht. Hat sich da was verändert oder trügt mich meine Erinnerung?
Im Mobile Bereich muss man massiv aufpassen wie die Chips Konfiguriert sind es gibt nicht nur eine MX150.

https://www.notebookcheck.net/Nvidia-has-been-sneaking-in-slower-GeForce-MX150-1D12-variant-onto-some-Ultrabooks.289358.0.html

Opprobrium
2020-01-07, 10:04:28
Ist das nicht nur Marketing?Normal lässt sich bei diesen Chips doch das TDP Konfigurieren.

Ziemlich sicher selektierte Chips die dann auch mit 35W hohe Taktraten erzielen.

Die 7CUs bei den H Chips lassen einen zukünftigen R9 in dieser Serie erwarten

J0ph33
2020-01-07, 10:04:46
Also ich kann schon mal sagen, dass eine MX250 deutlich schneller als eine Iris G7 mit 15W ist. :D

Das Problem bei heutigen Notebooks ist, dass die Performance weniger durch den eigentlichen Chip, als durch das Setup drumherum (Power Limit, Kühlung) bestimmt ist, sowohl in Sachen CPU als auch GPU.

Ich bin wirklich auf die Renoir-Benchmarks gespannt, insbesondere wie man von einer äquivalenten Single-Core-Performance zu Ice Lake auf ein 90%-Plus in multi-core (CB20) kommen will. Bei 15W ist ein 1065G7 bei multi-core ausschließlich power-limitiert (Ergebnisse schwanken zwischen 900 und 1300 Punkten), einzig im single-core sieht er maximalen Boost (ca. 480 Punkte). Ein 15W-Renoir dürfte im single-core ebenfalls bei knapp 500 Punkten rauskommen, im multi-core dann bei maximal ca. 2500 - das wäre ein Faktor 5 (bei 16 Threads). Damit das alles hinkommt, müsste ein Renoir-Core deutlich weniger als ein Ice-Lake-Core verbrauchen, dh da wäre eigentlich noch Raum nach oben, oder läuft man da schon gegen die Zen2-Taktgrenze?

mboeller
2020-01-07, 10:55:42
Ihr lasst euch von 3DMark Werten blenden Nvidias MX sind noch massiv vor den IGPs.
Mich wundert es das ihr da auf Intels Marketing reinfällt.

du vergisst, dass die Bandbreite auch um bis zu 77% gestiegen ist.
LPDDR4 4266 <-> DDR4 2400

die GPU im 4800u kann damit wahrscheinlich endlich mal die Rohleistung auch in Spielen umsetzen und nicht nur im 3DMark.

Ansonsten hat sich ja nicht so viel verändert:
10CU x 1300MHz <-> 8CU x 1750MHz
ergibt fast einen Gleichstand.

Und trotzdem ist der 3DMark Wert (Time Spy) massiv angestiegen.

Vega10: 845
Iris+ G7: 939

+28% wären das ca. 1200 Punkte

https://www.notebookcheck.com/AMD-Radeon-RX-Vega-10-GPU-Benchmarks-und-Spezifikationen.260138.0.html
https://www.notebookcheck.com/Intel-Iris-Plus-Graphics-G7-Ice-Lake-64-EU-Notebook-GPU.422786.0.html


Zum Vergleich:

MX250 (ca. 1200 Punkte):
https://www.notebookcheck.com/NVIDIA-GeForce-MX250-Grafikkarte.382326.0.html

RX550X (ca. 1140 Punkte):
https://www.notebookcheck.com/AMD-Radeon-RX-550X-Laptop-Grafikkarte-Benchmarks-und-Spezifikationen.420593.0.html

edit:

wenn du dann die Ergebnisse der Spiele miteinander vergleichst und auf die 3700u +50-70% draufschlägst, dann ist der Abstand auch bei den Spielen nicht mehr groß:

bestes MX250 Ergebnis (basierend auf den Time-Spy Werten):
https://www.notebookcheck.com/Test-Lenovo-ThinkPad-T490-i7-MX250-Low-Power-FHD-Laptop.420188.0.html

bestes 3700u Ergebnis:
https://www.notebookcheck.com/Test-Dell-Inspiron-15-5000-5585-Laptop-Eine-Klasse-Alternative-zu-Intel.428892.0.html

edit2: hier schaut es nicht gar so gut aus:

https://images.anandtech.com/doci/15324/AMD%20CES%202020%20Update_Client_Embargoed%20Until%20Jan.%206%20at%206pm%20ET-page-012.jpg

bbott
2020-01-07, 10:58:14
damit macht sich AMD keine Freunde bei Dell, Lenovo, HP usw.

DELL nutzt AMD nur um Intel bessere Deals abzuringen. DELL will kein AMD, maximal als Preisbrecher.

kmf
2020-01-07, 11:01:45
DELL nutzt AMD nur um Intel bessere Deals abzuringen. DELL will kein AMD, maximal als Preisbrecher....und das hat Michael Dell dir verraten? :D

Linmoum
2020-01-07, 11:04:12
DELL nutzt AMD nur um Intel bessere Deals abzuringen. DELL will kein AMD, maximal als Preisbrecher.Dell will Produkte verkaufen und Intel hat noch immer größere Lieferschwierigkeiten, die auch noch die nächsten Monate anhalten sollen. Alleine aus diesem Grund wird Dell schon Renoir-Produkte launchen.

dildo4u
2020-01-07, 11:05:51
DELL nutzt AMD nur um Intel bessere Deals abzuringen. DELL will kein AMD, maximal als Preisbrecher.
Du musst verpasst haben das Intel nicht genug Stückzahl liefern kann es geht nicht nur um Preis.

https://www.reuters.com/article/us-dell-tech-results/dell-cuts-full-year-revenue-forecast-on-pc-chip-shortage-idUSKBN1Y02I0

Loeschzwerg
2020-01-07, 11:08:26
Dell will Produkte verkaufen

So sollten Manager denken

DELL nutzt AMD nur um Intel bessere Deals abzuringen. DELL will kein AMD, maximal als Preisbrecher.

So denken Manager wirklich

*Ausnahmen bestätigen die Regel

bbott
2020-01-07, 11:14:40
...und das hat Michael Dell dir verraten? :D

Meine exklusive DELL Insider Quelle :biggrin: :freak:

mironicus
2020-01-07, 11:35:46
Wäh! Wo sind denn die Thunderbolt 3- Anschlüsse bei den vorgestellten Renoir-Laptops? Sie wollten doch auch Pro-User mit der CPU ansprechen, oder? Ich möchte gerne mal die hier mitlesenden Redakteure darum bitten Hersteller zu fragen, ob solche Laptops mit Renoir geplant sind.

Screemer
2020-01-07, 12:40:02
Wäh! Wo sind denn die Thunderbolt 3- Anschlüsse bei den vorgestellten Renoir-Laptops? Sie wollten doch auch Pro-User mit der CPU ansprechen, oder? Ich möchte gerne mal die hier mitlesenden Redakteure darum bitten Hersteller zu fragen, ob solche Laptops mit Renoir geplant sind.
es wird imho kein tb3 für amd geben. der traum sollte im notebookbereich ausgeträumt sein. vor usb4 wird gar nichts in der richtung kommen.

Nightspider
2020-01-07, 12:48:55
Im Prinzip hindert aber auch nichts Nvidia einen 7nm+ Chip mit kleiner größe und mind. 3facher Renoir Leistung rauszubringen.

Für einen sehr effizienten, schnellen Zusatzchip ist sicherlich noch ein gewisser Markt da.

Ein Zusatzchip würde mich nicht stören, wenn der auf der neuesten Stand der Effizienz ist und ich dafür nur bisschen (Akku) Platz im Laptop opfern muss.
Gerade ab 15" spielt der Platz ja nicht mehr so groß die Rolle wie bei 13 oder 14 Zoll und mit einem neuen GPU Chip und zB. AV1 Support hätte man gute Zukunftstauglichkeit, auch mal für ein kleines Spielchen.

bbott
2020-01-07, 12:49:19
So sollten Manager denken

So denken Manager wirklich

*Ausnahmen bestätigen die Regel

Nur Manager? Viele OEMs, Admins wollen auch nur Intel, um sich das Leben einfacher zumachen... Auswahl bedeutet Arbeit und Verantwortung.

Warum hatte AMD zu K8 Zeiten denn maximal 30% Marktanteil?!
Auch (DAU-)Kunden wollen es einfach, als einfach den Marktführer kaufen, solange man Ihn sich leisten kann.

mironicus
2020-01-07, 12:53:23
es wird imho kein tb3 für amd geben. der traum sollte im notebook bereich ausgeträumt sein. vor usb4 wird gar nichts in der richtung kommen.

Das ist doch Quatsch.

Thunderbolt 3 ist für alle freigegeben, es gibt X570-Mainboards mit Thunderbolt 3. Die muss man halt noch zusätzlich einbauen. Vor Icelake war Thunderbolt 3 auch nicht im Chipsatz integriert, jedes Skylake und Coffeelake-Notebook mit Thunderbolt 3 verwendet einen Zusatzchip, der extra wie beim X570 eingebaut werden muss und dann natürlich die Hardware teurer macht.

Screemer
2020-01-07, 12:55:52
Das ist doch Quatsch.

wir werden sehen. nicht mal die top-geräte mit excluive cpu haben tb3. das ist natürlich kacke und ich hätte es auch lieber früher als später gesehen. ich persönlich glaube da nicht mehr dran und hab das bis usb4 abgehakt.

bbott
2020-01-07, 13:05:51
es wird imho kein tb3 für amd geben. der traum sollte im notebook bereich ausgeträumt sein. vor usb4 wird gar nichts in der richtung kommen.

Vor allem wer benötigt TB3? Ich habe noch nie ein TB3 Produkt in der Hand gehalten, oder nicht wahrgenommen?!
Auch kenne ich niemanden der es nutzt oder benötigen würde.

Diskrete Grafikkarten fällt mir als einzige Anwendung ein, wo der Exot TB3 etwas bringt.
USB 3.x hat doch abseits von HDDs/SSD, Dockingstation schon kaum Anwendungsfälle.

Also was würde Zen2 TB3 bringen?

Die Bestrebungen auch noch HDMI/DP überflüssig zu machen, stelle ich in Frage. Wenn dann eine Tastatur und Maus auch TB3 können und die gleiche Bandbreite haben wie ein Monitor?! Der ganze Aufwand für Chips und Kabel nur damit auch der dümmste Dau alle Geräte anschließen kann?

mironicus
2020-01-07, 13:08:04
Wahrscheinlich wollen sich die Hersteller nicht ihre Margen kaputt machen, und identische Modelle mit Renoir-CPU bei Highend-Notebooks herausbringen die man bisher mit Intel-CPUs verkauft hat (eine Frage der Zeit).

Asus hat ja bewußt ein Modell gebracht, was es so noch nicht mit Intel-CPU gibt und damit ein Alleinstellungsmerkmal erschaffen.

Letztendlich werden Tests dann wohl zeigen, dass Renoir bei Dauerbelastung immer schneller und der Kühlungsaufwand geringer ist gegenüber Intel und nicht so agressiv throtteln wird. Da werden die Kunden schnell nach mehr AMD-Notebooks rufen und da kann auch Intel die Hersteller nicht davon abhalten das zu liefern was die Kunden wollen.

Mayhem
2020-01-07, 14:16:51
Diskrete Grafikkarten fällt mir als einzige Anwendung ein, wo der Exot TB3 etwas bringt.
Genau das. Habe das bei meinem XPS zusammen mit einer 970 im eGPU-Case. Das ist schon cool. Einfach Kabel rein und schon hat man 3 fache FPS (gegenüber der 1050Ti) und alles auffme Laptopschirm. Zumal GPU schneller als CPU altert.
Oder man nutzt das eGPU-Case parallel als Dockingstation. 1 Kabel rein und externer Monitor, beefy GPU und alle Eingabegeräte.
Sinn kann das schon machen.

J0ph33
2020-01-07, 14:44:27
Wenn die TB3-Spec erfüllt wird, hat man halt auch idR alle USB-C-Features, heißt Displayport, Power Delivery mit ausreichend Watt etc. Mir war das jetzt beim Notebookkauf schon wichtig, da ich halt auch mit nur einem Kabel docken will, und so zumindest sicher sein kann, dass ich auf der Notebookseite nicht beschränkt bin.

Screemer
2020-01-07, 14:46:44
Vor allem wer benötigt TB3? Ich habe noch nie ein TB3 Produkt in der Hand gehalten, oder nicht wahrgenommen?!
Auch kenne ich niemanden der es nutzt oder benötigen würde.

Diskrete Grafikkarten fällt mir als einzige Anwendung ein, wo der Exot TB3 etwas bringt.
USB 3.x hat doch abseits von HDDs/SSD, Dockingstation schon kaum Anwendungsfälle.

Also was würde Zen2 TB3 bringen?

Die Bestrebungen auch noch HDMI/DP überflüssig zu machen, stelle ich in Frage. Wenn dann eine Tastatur und Maus auch TB3 können und die gleiche Bandbreite haben wie ein Monitor?! Der ganze Aufwand für Chips und Kabel nur damit auch der dümmste Dau alle Geräte anschließen kann?
Sehr ich komplett anders. Tb3 ist ein Segen für Docks und externe gpus. Ich würde es mir 3 Mal überlegen ob ich bei nem 8/16 Kerner überhaupt noch einen Desktop Zuhause haben wollen würde. Leider sind tb3 Docks auch noch sehr rar und dazu auch noch teuer. Ich sehe es als großen Vorteil alle meine Peripherie über ein Kabel anbinden zu können und auch noch gleichzeitig das book zu laden. Imho ist der Preis der TB Docks mit NT aber auch einer der Gründe warum bei den ryzen Laptops darauf verzichtet wird.

iuno
2020-01-07, 15:10:50
Vega ist aber halt größer als Navi in 7nm. :y
Und wenn man den Takt senkt, sind größere GPUs effizienter.
Einheiten ftw.
Ja, das war zugegebenermassen nicht klar ausgedrueckt. Die kleinere GPU entfernst du weiter vom Sweetspot als die grosse. Die Schlussfolgerung "Vega>Navi", bei selbem Takt aber voellig anderer Konfiguration ist damit Unsinn.

Navi ist eh nicht das Effizienzwunder, als das es gepriesen wird. Das habe ich nie verstanden. Bei der APU wird es wohl wirklich ziemlich egal sein, ob's nun Vega oder Navi ist.

Aber was ich auch interessant finde:
Die "kleinere" GPU haben sie weil es Fläche einspart und sie mit dem neuen Prozess deutlich höher takten können. Dafür gibt es 4 Kerne mehr und man hat dennoch eine Leistungssteigerung. [...] AMD hat nur anscheinend endlich eingesehen, dass es keinen Sinn macht den Chip mit CUs vollzustopfen die dann an der Bandbreite verhungern. Alles in allem scheint der Chip schon sehr stimmig zu sein.
Vor nicht allzu langer Zeit gab es in der 15W Klasse noch 2C/4T bzw. 2 Module, waehrend vor allem die IGPs zugelegt haben. Da haette man sich kaum vorstellen koennen, dass eine APU mit 8C/16T und 8 CUs als gute Konfiguration angesehen werden kann.

robbitop
2020-01-07, 15:21:23
8CUs, why??:eek::eek:

und wieso heißen die noch vega wenn die 50% schneller pro CU sind? kann man das nicht wenigstens rdna light nennen oder so, wenn so gravierende Änderungen drin sind?
Wenn man sich mal die Verkäufe von CPUs mit IGPs anschaut. Bei Intel wird mit riesem Abstand GT2 am Meisten verkauft. Die größeren IGPs werden idR von kleinen dGPUs gefressen.
Zudem sind 7 nm Kapazitäten bei TSMC aktuell knapp. Also macht ein möglichst kleiner Die auch Sinn.

Die erhöhte Geschwindigkeit kommt sicherlich zum Großteil vom gesteigerten Takt und der deutlich höheren Bandbreite von LPDDR4X.

Mehr CUs würden vermutlich wieder schnell in ein Bandbreitenlimit laufen.


Warum isn da ne GammelVega drin, Chiplets erst vorbeten und dann kommt hinten rum der alte Kram. Paar RDNA CUs müssten sich doch verbauen lassen, oder sind dann die "Content Creators" am weinen...

Ja das ist schade. Ich tippe mal darauf, als man Renoir die Entwicklungsphase fertigstellte war die RDNA IP noch nicht ganz fertig. Wenn man CPU und GPU zusammenstellen muss in einem SoC braucht es da schon etwas andere Zeiträume.
Aber offenbar hat man etwas bei Vega getan. Etwas mehr Takt und ggf. nochmal etwas mehr Cache in der GPU für bessere Hitrate. Auch die Ratio zwischen CUs und ROPs sieht bezüglich Granularität besser aus als in den großen GPUs. Entsprechend sollte pro CU auch ein wenig mehr herumkommen.
RDNA wäre aber sicherlich besser gewesen. Ich tippe darauf, dass das erst zur nächsten GPU kommen wird.

HOT
2020-01-07, 15:32:05
Vega ist deutlich kleiner in N7 und der RDNA-Vorteil in der geringen Leistungsklasse ist mMn einfach nicht groß genug. Die haben jeden mm² gespart, der möglich war.

robbitop
2020-01-07, 15:52:05
Das kann ich mir auch gut vorstellen. Wobei ich darauf tippe, dass RDNA etwas besser mit der Speicherbandbreite umgehen kann. Wenn man auf das Produktionsdatum schaut, scheint Renoir schon seit Sommer in Produktion zu sein. Tapeout also im späten 2018. Und wie gesagt sind die design freezes und Zeiträume zur Integrierung bei GPUs sicherlich ein wenig länger als bei GPUs. Ich tippe darauf, dass RDNA noch nicht ganz fertig war oder aber man einfach nicht die Zeit hatte, RDNA für eine APU zu implementieren, da man noch mit N10 und N14 beschäftigt war.

Ggf bekommt die nächste APU ja dann auch schon RDNA2 IP.

gmb
2020-01-07, 16:24:25
Ist ja krass, da wurde im Vorfeld von 15 Compute Units spekuliert und am Ende sind es nur 6-8 CUs. AMD sieht sich 5-30% vor dem i7-1065G7 im Dell bei der Spieleleistung. Wenn das stimmt bekommt Renoir bei der 3D Leistung eins auf den Deckel von Tigerlake, Intel müsste ihr target schon extrem verfehlen.

Übrigens sind die endnotes von AMD ein Witz, die sind bei Intel viel genauer. Es fehlt zum Beispiel die RAM Konfiguration bei Renoir. Wenn das reference System bereits LPDDR4x 4266 verwendet, wäre das krass. Und wieso keine game Vergleiche gegen Picasso, das wäre interessant gewesen.

HOT
2020-01-07, 16:26:37
Kann schon sein, aber dieser Wert war bisher eh nicht relevant. Solange das im ähnlichen Leistungsspektrum liegt hat die Vergangenheit ja gezeigt, dass man sich für tolle Grafikleistung bei APUs ein Eis backen kann. Das fing schon bei Llano an. APUs sollten der große Wurf werden und wurden zum Nischenmarkt. Von daher ist das jetzt ne Richtungskorrektur. Lieber weniger mm² als leicht überlegene GPU-Leistung.

Speicherbandbreite ist weniger ein Problem, wenn die Hersteller eh auf LPDDR4x setzen bei den Modellen, wo es darauf ankommt.

robbitop
2020-01-07, 16:32:20
Wie gesagt: iGPU Leistung scheint niemanden zu interessieren. 99% der iGPUs bei Intel im Verkauf sind GT2 und kleiner. AMD hatte lange die Führung bei iGPUs. Geholfen hat es ihnen nicht. Große iGPUs werden offenbar von kleinen dGPUs komplementiert (und damit sinnfrei) oder ersetzt. AMD bringt lieber 8 Kerne und nur einen moderaten iGPU Anstieg und hat auch eine kleine APU, die wenig in der Produktion kostet und wenig wertvolle 7nm Wafer frisst. Die jenigen die möglichst viel iGPU Leistung wollen aber keine dGPU wollen scheinen eine Randgruppe zu sein.

Dino-Fossil
2020-01-07, 16:37:49
Die jenigen die möglichst viel iGPU Leistung wollen aber keine dGPU wollen kaufen eine Konsole.

Hab das für dich korrigiert. :tongue:

Aber ernsthaft, ich finde es auch ok. Denke es hilft auch, dass AMD sich einigermaßen sicher zu sein scheint, mit Navi etwas für mobile dGPUs bieten zu können.

Unicous
2020-01-07, 16:48:11
@robbitop

Das ist doch Unsinn.:rolleyes:

Für AMD hat sich niemand interessiert, weil die CPU-Kerne lange Zeit viel zu schwach waren und Raven Ridge/Picasso in zwei Jahren keine Wunder vollbringt und den Markt umkrempelt. (Des weiteren kommen schlechte Designs und schlechte Akkuleistung hinzu.)

Intel hatte über Jahre eine verkrüppelte GPU die gerade mal für Medienwiedergabe gut war und darüber hinaus das Quasimonopol.

Deine 99% würde ich gerne mal quantifiziert sehen.:rolleyes:
Es ist logisch, dass Intel von den Mainstream CPUs am Meisten verkauft und die Halo-Produkte deutlich weniger, insbesondere wenn man bedenkt was Intel "offiziell" für Preise aufruft. Aber daraus zu schlussfolgern, niemand will eine potente iGPU ist nichts weiter als eine Scheinkausalität.

Im Übrigen wird hier immer wieder vergessen, dass die iGPU auch an den Kernen hängt. Wenn die iGPU bei AMD in einigen Spielen ins CPU-Limit läuft, heißt das nicht automatisch, dass die Nvidia-Lösung "gewinnt". AMD hat jetzt diesen bottleneck entfernt und das wird sich auch in den Benchmarks zeigen.

mironicus
2020-01-07, 17:11:53
AMD hat ja wohl auch noch eine Radeon 5300M in Planung, die wäre wohl überflüssig geworden, wenn Renoir mit 16 CU gekommen wäre.

HOT
2020-01-07, 17:14:39
Oder anders herum. Den gibts, weil Renoir recht schwach ist bei GPU.

Complicated
2020-01-07, 17:22:17
AMD hat ja wohl auch noch eine Radeon 5300M in Planung, die wäre wohl überflüssig geworden, wenn Renoir mit 16 CU gekommen wäre.
Was heisst in Planung? Die ist im November 2019 gestartet.
https://www.planet3dnow.de/cms/52415-amd-radeon-pro-5000m-series-mobile-gpus-bring-high-performance-amd-rdna-architecture-to-apples-new-16-inch-macbook-pro/

mironicus
2020-01-07, 17:25:08
Ja, ich weiß dass es den 5300M schon seit kurzem gibt, aber ist halt noch nicht stark verbreitet.

Berniyh
2020-01-07, 17:27:24
Wäh! Wo sind denn die Thunderbolt 3- Anschlüsse bei den vorgestellten Renoir-Laptops? Sie wollten doch auch Pro-User mit der CPU ansprechen, oder? Ich möchte gerne mal die hier mitlesenden Redakteure darum bitten Hersteller zu fragen, ob solche Laptops mit Renoir geplant sind.
Das ist doch Quatsch.

Thunderbolt 3 ist für alle freigegeben, es gibt X570-Mainboards mit Thunderbolt 3. Die muss man halt noch zusätzlich einbauen. Vor Icelake war Thunderbolt 3 auch nicht im Chipsatz integriert, jedes Skylake und Coffeelake-Notebook mit Thunderbolt 3 verwendet einen Zusatzchip, der extra wie beim X570 eingebaut werden muss und dann natürlich die Hardware teurer macht.
Das stimmt, aber so lange ist es von Intel noch nicht freigegeben (grob 1.5 Jahre, wenn ich mich recht entsinne), hat also vom Design-Zeitplan für Renoir vermutlich nicht mehr gereicht.
Für zukünftige Generationen wird ja schon spekuliert, dass WLAN und Bluetooth auch in die CPU wandern könnten. Könnte mir vorstellen, dass dann auch Thunderbolt und/oder USB4 dazu kommt.

Vor allem wer benötigt TB3? Ich habe noch nie ein TB3 Produkt in der Hand gehalten, oder nicht wahrgenommen?!
Auch kenne ich niemanden der es nutzt oder benötigen würde.
Hier, habe ne TB3 Dockingstation auf der Arbeit. Ist unglaublich praktisch und möchte ich nicht mehr missen.
Da hängen dann 2 Bildschirme dran und die Eingabegeräte, Netzwerk etc.
Ist schon sehr praktisch.

Als eGPU gerade für Content Creator die dennoch einen Laptop verwenden wollen auch sehr interessant. Deshalb verkauft auch gerade Blackmagic solche eGPUs (basierend auf einer Vega 56 iirc).

CrazyIvan
2020-01-07, 17:45:32
Damit das alles hinkommt, müsste ein Renoir-Core deutlich weniger als ein Ice-Lake-Core verbrauchen, dh da wäre eigentlich noch Raum nach oben, oder läuft man da schon gegen die Zen2-Taktgrenze?
Damit triffst Du tatsächlich ins Schwarze. Habe das hier im Thread bereits mehrfach verlinkt. Anandtech hat das bei Threadripper durchgemessen. 1 Ryzen 2 Kern verbraucht bei 4,3Ghz ca. 13,5 Watt. Vom Power Budget wäre da noch Luft. Deshalb war ich auch fälschlicherweise von 4,5Ghz Boost ausgegangen.

robbitop
2020-01-07, 17:48:29
@robbitop

Das ist doch Unsinn.:rolleyes:

Lege dir bitte mal anständige Diskussionsmanieren zu. "Unsinn" und wieder mal abfälliges Augenrollen sind keine anständige Grundlage. Ist das so schwer?


Für AMD hat sich niemand interessiert, weil die CPU-Kerne lange Zeit viel zu schwach waren und Raven Ridge/Picasso in zwei Jahren keine Wunder vollbringt und den Markt umkrempelt. (Des weiteren kommen schlechte Designs und schlechte Akkuleistung hinzu.)
Intel hatte über Jahre eine verkrüppelte GPU die gerade mal für Medienwiedergabe gut war und darüber hinaus das Quasimonopol.
Da gebe ich dir Recht, dass das die Hauptursache war. Aber man sieht an Intels Lineup, und dem was auf dem Markt ist, dass die GT3/4 nur eine untergeordnete Bedeutung hat. Das spricht dafür, dass der Markt für große iGPUs relativ klein zu sein scheint.



Deine 99% würde ich gerne mal quantifiziert sehen.:rolleyes:
Siehe oben. Bitte arbeite an deiner Diskussionskultur. Wald -> rein/rausschreien. ;)
Die 99% sind stilistisch gemeint. Da du ein pfiffiger Kerl zu sein scheinst, sollte dir das auch klar sein. Nicht jedes Wort auf die Goldwage tun, sondern auch mal im Kontext mitdenken. Postings zu zerpflücken und nach jeder Lücke zu suchen bringt nichts. Es ging bei den 99% um eine Kernbotschaft. Gemeint war "der Großteil".

Auch wenn es als Beweiskette nicht belastbar ist, so reicht es mir als Indiz: Man schaue sich mal an wie viele Modelle von Notebooks mit GT2 existieren und wie viele mit GT3/4.

Core 10.000 Serie Notebooks gesamt: 476
davon mit Iris Plus: 59

(Filter in Geizhals gesetzt)

Sind also nur 12,3% der Anzahl der Modelle. Über VKZ sagt es aber nichts aus - stimmt. Wenn man aber vereinfacht davon ausgeht, dass die VKZ 1:1 sind (was natürlich wackelig ist), ist das ein Marktanteil, den man zumindest temporär, auch mal vernachlässigen kann, wenn jeder Wafer zählt und man der Underdog ist.


Notebooks

Es ist logisch, dass Intel von den Mainstream CPUs am Meisten verkauft und die Halo-Produkte deutlich weniger, insbesondere wenn man bedenkt was Intel "offiziell" für Preise aufruft. Aber daraus zu schlussfolgern, niemand will eine potente iGPU ist nichts weiter als eine Scheinkausalität.
Ich möchte bezweifeln, dass eine große iGPU (die in der Regel von fast jeder aktuellen dGPU zum Frühstück verspeist wird) großartig einen Halo Effekt erzeugt. Das günstigste Iris Plus Notebook mit Core aus der 10000er Serie kostet aktuell z.B 599 €. Für das gleiche Geld bekommt man einen Laptop mit Core 10000er Serie mit Geforce MX230. Für ein wenig mehr gibt es dann auch nochmal deutlich mehr Leistung. Zumal die dGPU idR nochmal zusätzliches TDP Budget bekommt. Bedeutet, die CPU kann die 15W für sich allein haben und die GPU bekommt ein eigenes Budget (ja hat dann auch entsprechende Nachteile bzgl Kühlung, Bauraum und Akku). Im Endeffekt schneller.


Im Übrigen wird hier immer wieder vergessen, dass die iGPU auch an den Kernen hängt. Wenn die iGPU bei AMD in einigen Spielen ins CPU-Limit läuft, heißt das nicht automatisch, dass die Nvidia-Lösung "gewinnt". AMD hat jetzt diesen bottleneck entfernt und das wird sich auch in den Benchmarks zeigen.
Das sehe ich auch so.

Loeschzwerg
2020-01-07, 18:02:56
Core 10.000 Serie Notebooks gesamt: 476
davon mit Iris Plus: 59


Da musst du Icelake eigentlich rausrechnen, das ist auch nur ein "GT2"-Ausbau in den U-Modellen.

Letztendlich hat GT3 nur wirklich Apple verwendet und ganz wenige MS Geräte.

robbitop
2020-01-07, 18:11:59
Da musst du Icelake eigentlich rausrechnen, das ist auch nur ein "GT2"-Ausbau in den U-Modellen.

Letztendlich hat GT3 nur wirklich Apple verwendet und ganz wenige MS Geräte.
OK. Nehme ich die 8000er und 9000er Serie geht der GT3/4 Anteil noch weiter zurück.
3410 gesamt
davon 104 GT3/4;
1398 GT2;
1908 dediziert

Am Ende spielt es auch für die Kernaussage keine große Rolle ob es wie hier 3% oder wie in der 10000er Gen 12% sind. Es ist anscheinend eine extrem deutliche Minderheit. Verstärkt vermutlich noch dadurch, dass die Notebooks mit GT3/4 wesentlich teurer sind als die GT2. Die Marktbedeutung von GT3/4 ist verglichen mit GT2 und/oder dGPU relativ klein. Klein genug, damit man die als Underdog auch mal ignorieren kann. Intel hat die Ressourcen 2x Chips aufzulegen. AMD muss schauen, dass sie mit 1x Chip im Moment klar kommen. Da würde ich schauen, dass ich den Marktbereich, der mehr Volumen bedeutet möglichst gut mache.

mironicus
2020-01-07, 18:13:59
Ein Renoir mit 45 Watt dürfte wohl letztendlich fast so schnell sein wie ein Ryzen 3700x mit 65 Watt, oder? Einige stromfressende Komponenten im Desktop-Die fallen bei Renoir weg, wenn ich noch eine kurzfristige erhöhte TDP für den Turbo zulasse dann sollte da nicht viel Unterschied sein.

dildo4u
2020-01-07, 18:19:21
Kommt auf die Software an AMD hat den Chip ja mit dem 9700k verglichen ein 3700X ist deutlich schneller wenn alle Threads genutzt werden.

Loeschzwerg
2020-01-07, 18:24:05
@robbi: Jup, so sehe ich das auch. Ich meine GT4e gab es nicht mal in Mobiles, waren ja alles 45W SKUs. Aber wenn man schon 45W SKUs in Notebooks verbaut, dann eben die Modelle mit mehr CPU Leistung + zusätzlicher dGPU. Ich glaube die letzten GT3/e SKUs (also Gen9.5) gab es auch nur weil Apple Bedarf gemeldet hat, für die passt die stärkere IGP in ein paar Use-Cases.

bloodflash
2020-01-07, 18:44:16
OK. Nehme ich die 8000er und 9000er Serie geht der GT3/4 Anteil noch weiter zurück.
3410 gesamt
davon 104 GT3/4;
1398 GT2;
1908 dediziert



Die GT3/4 gibt es fast nur in hochpreisigen Modellen. GT2 aber in allen Preisklassen von 300,-EUR-Notebooks bis zum >2000,-EUR-Boliden.


Die zugesteckten dGPUs machen die Geräte teurer, lauter und schwerer oder sorgen dafür, dass das Powerbudget von CPU und dGPU auf das Niveau von GT3/4 oder unter Ryzen-Niveau gekappt werden.


Ein NB mit Ryzen 4000 und 15W würde endlich mal genug Leistung bringen, um keine Abstriche bei der Performace zu haben und trotzdem in Preisregionen unter 1000,-EUR zu bleiben. Selbst die x5-Lösungen von AMD sind weit vor den GT2-Lösungen von Intel.


Hier reden nur alle von der Icelake-CPU im Vollausbau, aber die Realität sieht bei Intel ganz anders aus. Das wird der R4000 hoffentlich ändern.


Der einzige Knackpunkt bei meinem Notebook ist der i5-7440HQ (45W) und seine GT2! Gab halt nix anderes.

Mayhem
2020-01-07, 18:48:07
Ich denke AMD spekuliert mit der "schwächeren" iGPU auch darauf mehr dGPUs mitzuverkaufen. Jetzt macht eine R5300m/R5500m auf einmal auch Sinn. Speziell mit SmartShift arbeiten sie IMHO speziell auf dieses Model hin.

Lehdro
2020-01-07, 18:52:02
Ein Renoir mit 45 Watt dürfte wohl letztendlich fast so schnell sein wie ein Ryzen 3700x mit 65 Watt, oder? Einige stromfressende Komponenten im Desktop-Die fallen bei Renoir weg, wenn ich noch eine kurzfristige erhöhte TDP für den Turbo zulasse dann sollte da nicht viel Unterschied sein.
Vergiss nicht den Rückschritt beim Cache, der 3700X wird somit messbar schneller sein.

Linmoum
2020-01-07, 18:56:47
Bzgl. Renoir/Vega (und nicht Navi)
Volker Rißka, ComputerBase: If the design was being discussed three years ago, why are the new parts using Vega, and not Navi?

LS: It's always how we integrate the components at the right time. Certainly the Vega architecture is well known, very well optimized. It was always planned that this would be Zen2 + Vega. But just to be clear, you will see Navi in our APUs, and those will be coming.
https://www.anandtech.com/show/15344/amd-at-ces-2020-qa-with-dr-lisa-su

Unicous
2020-01-07, 18:57:54
@robbitop

Ich kann nichts dafür, wenn du low effort posts machst und dich dann darüber aufregst, wenn man die Löcher in deiner Argumentation aufweist.:wink:

Ich wusste auch nicht, dass Ice Lake ein Halo Produkt ist, wenn Intel gleichzeitig einen 6-Kerner herausbringt und Iris Plus aus den 15W+ CPUs "verbannt" hat:confused:

Ich meinte Halo-Produkte à la Iris Plus Graphics 655 mit eDRAM. Iris Plus ist momentan nicht Teil eines Halo-Produktes und wurde offensichtlich zu Gunsten von DG1 und Tiger Lake degradiert. Zumal wir ja auch schon mal bei 72 EUs waren.

Was man aber erkennen kann ist Folgendes: Intel hat keine Ahnung was sie machen. Ihr Produkt-Portfolio ist so chaotisch und durchsegmentiert, dass einem die Haare zu berge stehen, wenn man versucht sich einen Reim darauf zu machen. Ich schätze mit Tiger Lake wird man sich etwas besinnen und aufräumen, das was sie momentan veranstalten ist eine verunglückte Clownsnummer (siehe u.a. Comet Lake und Ice Lake).

ps:

Der Laptop den du dir da ausgesucht hast kommt übrigens ohne OS und nur mit einem Riegel, sollte man vllt. mal erwähnen bevor du dann einen Vergleich zu anderen Laptops ziehst, die sicherlich mit vorinstalliertem OS kommen.

Grendizer
2020-01-07, 19:05:03
....
ps:

Der Laptop den du dir da ausgesucht hast kommt übrigens ohne OS und nur mit einem Riegel, sollte man vllt. mal erwähnen bevor du dann einen Vergleich zu anderen Laptops ziehst, die sicherlich mit vorinstalliertem OS kommen.

Naja... das OS macht heute den Kohl auch nicht mehr fett
https://www.ebay.de/sch/i.html?_from=R40&_trksid=p2380057.m570.l1311.R1.TR11.TRC1.A0.H0.Xwindows10.TRS0&_nkw=windows+10+pro+key&_sacat=0

CrazyIvan
2020-01-07, 19:05:57
Vergiss nicht den Rückschritt beim Cache, der 3700X wird somit messbar schneller sein.
Den größeren Cache braucht 3700X größtenteils ja nur, um die Latenz zum I/O Die zu verstecken. Das Problem hat Renoir nicht.

Unicous
2020-01-07, 19:07:02
Vergiss nicht den Rückschritt beim Cache, der 3700X wird somit messbar schneller sein.

Und du bitte vergiss nicht, dass es ein monolithisches Design ist und AMD vermutlich an den Caches gearbeitet hat. Klar machen sich 32MB vs. 8MB bemerkbar, aber das kann teilweise durch schnelleren Cache mitigiert werden. Darum ist wird es sehr spannend wie sich das monolitische Design gegenüber dem Chiplet Design schlägt.

@Grendizer

Was ist das für ein dämliches Argument.:facepalm: Ich kann mir halb-illegal eine OEM-Lizenz für einen Fünfer kaufen oder ich kaufe eine legitime Version vom Notebookhersteller. Für was entscheidet sich Elfriede, die nur einen Laptop braucht und sonst keine Ahnung hat wohl?:uponder:

mczak
2020-01-07, 19:08:27
Ein Renoir mit 45 Watt dürfte wohl letztendlich fast so schnell sein wie ein Ryzen 3700x mit 65 Watt, oder? Einige stromfressende Komponenten im Desktop-Die fallen bei Renoir weg, wenn ich noch eine kurzfristige erhöhte TDP für den Turbo zulasse dann sollte da nicht viel Unterschied sein.
Naja also zwischen 45W und 88W (was ja die PPT der 65W Chips ist) ist praktisch ein Faktor 2, auch wenn die 45W Notebook Chips kurzfristig mehr ziehen dürfen. So stromfressend ist jetzt das Drumherum bei den Desktop-Chips auch nicht (zu stromfressend für Notebooks ja, aber ansonsten sind das auch nicht Dutzende Watts).

Ausserdem, schon bei RR konnte sich der halbe Cache in Benchmarks durchaus mal mit 5-10% Leistungseinbusse bemerkbar machen gegenüber den normalen Ryzen. Das wird nun mit einem Viertel des Caches sicher nicht besser.
(Theoretisch könnte Renoir einen Vorteil haben bei den Speicherlatenzen, ich schätze aber mal das wird nicht der Fall sein weil das IF aus Stromspargründen nicht allzu schnell ist und womöglich immer asynchron zum Speichertakt ist - auf jeden Fall rechne ich schon mal damit dass von der Speicherbandbreite, die ja mit lpddr4x höher ist als bei den Desktop-Chips, nicht alles in einem CCX ankommt, zumindest nicht bei Verwendung von schnellem Speicher. Das ist aber alles Spekulation.)

Unicous
2020-01-07, 21:21:21
Interessantes Interview mit Ian Cutress zu Ryzen 4000 Mobile vs. Intel und ein wenig Spekulation zu Navi am Ende.

LTz3k3chT_c

mironicus
2020-01-07, 21:47:58
Kleine Hoffnung wegen Thunderbolt 3 beim Asus Zephyrus G14. Dieser Artikel bietet auch viel detailliertere Informationen über das Innenleben.

https://winfuture.de/videos/Hardware/Asus-Zephyrus-G14-14-Zoll-mit-neuem-AMD-Ryzen-LED-Matrix-21023.html

Bei den Ports gibt es eine reichliche Auswahl, denn ASUS integriert hier einen HDMI-Ausgang von voller Größe, einen kombinierten Audio-Ein- und -Ausgang, einen USB-Type-C-Port mit Thunderbolt-Support auf der linken Seite sowie einen weiteren solchen Anschluss und zwei USB-A-Ports von normaler Größe auf der rechten Seite.

EDIT: Ich bin mir leider sicher, dass die Angaben bei Winfuture nicht stimmen, da sie von anderen Webseiten nicht bestätigt werden. Außerdem fehlt bei den sichtbaren USB-C Buchsen im Video klar das "Donnersymbol" das normalerweise eine Thunderbolt 3-Schnittstelle kennzeichnet.

gmb
2020-01-07, 22:08:03
Wie gesagt: iGPU Leistung scheint niemanden zu interessieren. 99% der iGPUs bei Intel im Verkauf sind GT2 und kleiner. AMD hatte lange die Führung bei iGPUs. Geholfen hat es ihnen nicht.


Das lag an vielen Gründen. Singlethread Leistung viel niedriger, Akkuflaufzeit viel niedriger, Auswahl im Markt viel kleiner und viele Müllgeräte, generell schwache Verfügbarkeit usw. Neben der 3D Leistung sind ja auch die Multimediafähigkeiten wichtig und hier hat sich AMD oft nicht mit Ruhm bekleckert, eine Quicksync Alternative gab es lange nicht. Und die GT3 bei Intel konnte nie ankommen, weil die kaum verfügbar gewesen sind und wenn, dann sehr teuer. Außerdem war die Leistung auch nicht rühmlich. Bei Intel war immer nur die GT2 relevant, alles andere waren Exoten.

LasterCluster
2020-01-07, 23:17:52
War das schon dran?
https://www.computerbase.de/2020-01/amd-dali-athlon-gold-silver/

Volker meint, dass in neuen 2c Athons Dali verbaut wird, der nicht auf Zen2 basiert, sondern auf Picasso. Ich frage mich warum dies nicht einfach Raven2 sein soll

CrazyIvan
2020-01-07, 23:35:31
Ausserdem, schon bei RR konnte sich der halbe Cache in Benchmarks durchaus mal mit 5-10% Leistungseinbusse bemerkbar machen gegenüber den normalen Ryzen. Das wird nun mit einem Viertel des Caches sicher nicht besser.
(Theoretisch könnte Renoir einen Vorteil haben bei den Speicherlatenzen, ich schätze aber mal das wird nicht der Fall sein weil das IF aus Stromspargründen nicht allzu schnell ist und womöglich immer asynchron zum Speichertakt ist - auf jeden Fall rechne ich schon mal damit dass von der Speicherbandbreite, die ja mit lpddr4x höher ist als bei den Desktop-Chips, nicht alles in einem CCX ankommt, zumindest nicht bei Verwendung von schnellem Speicher. Das ist aber alles Spekulation.)
Nochmal: Renoir hat gegenüber Desktop Ryzen 3000 einen Vorteil, den RR und Picasso gegenüber Ryzen 2000 nicht hatte. Er hat den Memory Controller on-die. Kannst Du Dich etwa nicht an die Zeit erinnern, als AMD den auf dem Desktop erstmals integriert hat? Damals blieb der angebundene RAM auch gleichschnell. Trotzdem stieg die Performance enorm.

davidzo
2020-01-08, 00:20:50
War das schon dran?
https://www.computerbase.de/2020-01/amd-dali-athlon-gold-silver/

Volker meint, dass in neuen 2c Athons Dali verbaut wird, der nicht auf Zen2 basiert, sondern auf Picasso. Ich frage mich warum dies nicht einfach Raven2 sein soll

Ja, höchstwahrscheinlich ist Dali dasselbe für Banded Kestrel / raven2 wie Picasso für Raven Ridge war. Denn Raven2/ banded Kestrel ist noch 14nm Zen (ja, auch der 3200U ist noch 14nm). Es wird Zeit für ein 12nm Zen+ update...

davidzo
2020-01-08, 01:01:49
Kommt auf die Software an AMD hat den Chip ja mit dem 9700k verglichen ein 3700X ist deutlich schneller wenn alle Threads genutzt werden.

Ja, aber nur MT, weil da die TDP bzw. das Power Budget limitiert. In ST ist der 4800U ja gleichauf mit dem 3700x und der wiederum sehr vergleichbar mit dem 9700k. Bis 4 Threads ist die performance laut userbenchmark absolut identisch zum 3700x. Dadrüber bricht die Leistung um 15-25% ein, da niedrigere Taktraten anliegen.
Der 9700k ist tatsächlich nicht besonders leistungsfähig in MT Szenarien. Es fehlt halt SMT und daneben kann er dank 14nm bei Allcore-Last auch nicht mehr den vollen 1-core Boost ausspielen.
Der 3700x ist also wenig verwunderlich in MT-Tests die schnellere 8 core CPU als beide anderen.

mczak
2020-01-08, 01:59:45
Nochmal: Renoir hat gegenüber Desktop Ryzen 3000 einen Vorteil, den RR und Picasso gegenüber Ryzen 2000 nicht hatte. Er hat den Memory Controller on-die. Kannst Du Dich etwa nicht an die Zeit erinnern, als AMD den auf dem Desktop erstmals integriert hat? Damals blieb der angebundene RAM auch gleichschnell. Trotzdem stieg die Performance enorm.
Das ist schon klar. Nur ist die Latenz bei Zen2 gegenüber Zen+ auch bloss etwa um ~10ns gestiegen. Klar die könnte man zurückgewinnen (sind immerhin doch etwa ~12%), aber 10ns sind auch etwa das was man schon nur verliert bei den Desktop Zen2 wenn der Speichertakt asynchron zum IF ist. Und wie gesagt ich wäre überhaupt nicht erstaunt wenn das bei Renoir immer der Fall ist (dafür gibt es im anandtech Artikel auch Hinweise). (Im Uebrigen waren da bei den geleakten userbenchmark Werten die Speicherlatenzen von Renoir tatsächlich sogar eher unterirdisch im Vergleich zu Desktop Ryzen 3000, auch wenn ich da noch etwas skeptisch bin.)

SKYNET
2020-01-08, 02:17:50
Das ist schon klar. Nur ist die Latenz bei Zen2 gegenüber Zen+ auch bloss etwa um ~10ns gestiegen. Klar die könnte man zurückgewinnen (sind immerhin doch etwa ~12%), aber 10ns sind auch etwa das was man schon nur verliert bei den Desktop Zen2 wenn der Speichertakt asynchron zum IF ist. Und wie gesagt ich wäre überhaupt nicht erstaunt wenn das bei Renoir immer der Fall ist (dafür gibt es im anandtech Artikel auch Hinweise). (Im Uebrigen waren da bei den geleakten userbenchmark Werten die Speicherlatenzen von Renoir tatsächlich sogar eher unterirdisch im Vergleich zu Desktop Ryzen 3000, auch wenn ich da noch etwas skeptisch bin.)

ich gehe davon aus, der wird auch mit LP4266X synchron laufen.

Unicous
2020-01-08, 02:53:52
Falsch.

Wurde schon von AMD bestätigt, dass der IF unabhängig vom Speicher taktet.

These CPUs all support LPDDR4X memory, up to 64 GB, and AMD says that the infinity fabric is not tied to this memory clock. This helps the chip reach even lower power in its idle states, and the company said that they have rearchitected a good portion of the power delivery in the APU in order to be able to power down and power gate more elements of the SoC than was previously possible. AMD said that this decoupling of the infinity fabric and memory support, especially with both CPU and GPU accessing it, was made substantially easier due to the APU being a monolithic solution (with that in mind, it’s likely that AMD might not be going down the chiplet APU route any time soon).
https://www.anandtech.com/show/15324/amd-ryzen-4000-mobile-apus-7nm-8core-on-both-15w-and-45w-coming-q1

Berniyh
2020-01-08, 06:31:10
Wenn ich mal so rekapituliere was an Leaks in den letzten Wochen/Monaten zu Renoir aufgetaucht ist, dann hat AMD wohl so einiges an Leak-Quellen schließen können, denn nicht wenige Leaks zu Renoir waren mindestens unpräzise, teilweise sogar ziemlich falsch.

Sollte man im Hinblick auf zukünftige Leaks evtl. im Blick behalten.

CrazyIvan
2020-01-08, 06:35:33
Ja, es bleibt in der Hinsicht auf jeden Fall spannend. Anand wird sicher ASAP einen Deep Dive dazu machen.
Fraglich ist für mich, wie der Teiler zwischen IF und RAM aussieht und ob er auch wieder fix ist, oder ggf. je nach Last dynamisch angepasst wird. Ich wollte damit nur sagen, dass man beim Cache keine 1:1 Analogie zur Vorgängergeneration ziehen kann.
Das ist schon klar. Nur ist die Latenz bei Zen2 gegenüber Zen+ auch bloss etwa um ~10ns gestiegen. Klar die könnte man zurückgewinnen (sind immerhin doch etwa ~12%), aber 10ns sind auch etwa das was man schon nur verliert bei den Desktop Zen2 wenn der Speichertakt asynchron zum IF ist. Und wie gesagt ich wäre überhaupt nicht erstaunt wenn das bei Renoir immer der Fall ist (dafür gibt es im anandtech Artikel auch Hinweise). (Im Uebrigen waren da bei den geleakten userbenchmark Werten die Speicherlatenzen von Renoir tatsächlich sogar eher unterirdisch im Vergleich zu Desktop Ryzen 3000, auch wenn ich da noch etwas skeptisch bin.)

Zossel
2020-01-08, 07:27:00
ich gehe davon aus, der wird auch mit LP4266X synchron laufen.

Synchron wären dann auch 2133 oder 1066, also 4266/2 oder 4266/4.
Und asynchron braucht zusätzliche Logik die Energie verbraucht.

robbitop
2020-01-08, 09:21:15
@robbitop

Ich kann nichts dafür, wenn du low effort posts machst und dich dann darüber aufregst, wenn man die Löcher in deiner Argumentation aufweist.:wink:
"low effort post" - sehr gutes Denglisch. :D

Spaß beiseite: Wie man aber an meinen Ausführungen sah, hatte ich grundsätzlich Recht. Die meisten von uns haben noch ein Leben neben dem Forum und haben nicht die Zeit, jeden Post durchzustylen und das kann auch kein Maßstab als Legitimation für so einen unschönen Diskussionston sein. Ich finde, man muss nicht jedes Wort auf die Goldwage legen. ;)



Ich wusste auch nicht, dass Ice Lake ein Halo Produkt ist, wenn Intel gleichzeitig einen 6-Kerner herausbringt und Iris Plus aus den 15W+ CPUs "verbannt" hat:confused:

Ich meinte Halo-Produkte à la Iris Plus Graphics 655 mit eDRAM. Iris Plus ist momentan nicht Teil eines Halo-Produktes und wurde offensichtlich zu Gunsten von DG1 und Tiger Lake degradiert. Zumal wir ja auch schon mal bei 72 EUs waren.
Ich bezweifle ernsthaft, dass IGPs überhaupt ein Halo Produkt ausmachen. Selbst die stärkste IGP wird von einer dGPU zum Frühstück verputzt. Dazu kommt, dass die Top Dog CPUs mit großer IGP offenbar so teuer im Verkauf ist, dass es nur in relativ teuren Notebooks verkauft wird. Da kommen schnell dGPUs als Gegner.

Als Endverbraucher würde ich natürlich auch gern eine schnelle IGP sehen, die dünne und günstige Notebooks für 1080p Gaming @60fps ermöglicht. IMO ist Vega8 dazu etwas zu langsam. Ich sehe den Punkt. Ich versuche mich aber andererseits auch in AMD hineinzuversetzen - Ressourcen sind begrenzt - welche Produkte bringen am meisten(?). Und genau das hat AMD gemacht IMO.

Ich bin mir relativ sicher, wenn AMD genug Zeit bekommt, sich weiter zu erholen (wonach es aktuell aussieht), wird mittelfristig so eine APU kommen. Und offenbar hat man Intel damit angestachelt, so dass deren GT2 (also das Massenprodukt) auch immer besser wird. Gen11 brachte gute Sprünge, Xe wird nachlegen. Wahrscheinlich werden wir mittelfristig von beiden Massen IGPs sehen, die diesem Anspruch genügen.


Was man aber erkennen kann ist Folgendes: Intel hat keine Ahnung was sie machen. Ihr Produkt-Portfolio ist so chaotisch und durchsegmentiert, dass einem die Haare zu berge stehen, wenn man versucht sich einen Reim darauf zu machen. Ich schätze mit Tiger Lake wird man sich etwas besinnen und aufräumen, das was sie momentan veranstalten ist eine verunglückte Clownsnummer (siehe u.a. Comet Lake und Ice Lake).
Ja die 10000er Serie ist ein Chaos. Man sieht förmlich wie Intel in der Krise dank 10 nm steckt. Das wird sich, da stimme ich zu, mit Tiger Lake sicherlich bessern.


ps:

Der Laptop den du dir da ausgesucht hast kommt übrigens ohne OS und nur mit einem Riegel, sollte man vllt. mal erwähnen bevor du dann einen Vergleich zu anderen Laptops ziehst, die sicherlich mit vorinstalliertem OS kommen.
Es war ein grober schneller Überblick. Ich bin mir sicher, dass wenn ich nochmal schaue, es für wenig Preisdifferenz einen mit Windows und 2x Riegeln gibt. Die OEMs bekommen Windows 10 Lizenzen hinterher geschmissen und bei gleicher Speichermenge ist der Preis für 1x Riegel vs 2x Riegel fast zu vernachlässigen.

Wichtig ist, dass die Kernaussage stimmt. ;)

robbitop
2020-01-08, 09:28:03
Den größeren Cache braucht 3700X größtenteils ja nur, um die Latenz zum I/O Die zu verstecken. Das Problem hat Renoir nicht.
Die I/O Latenz kommt größtenteils von der IF. Die Kommunikation zwischen CCD und I/O Die scheint bei Matisse vs Pinnacle Ridge ~5-10 ns auszumachen.

Die gemessene Memorylatency scheint mit 94 ns ziemlich schlecht zu sein.
https://www.userbenchmark.com/UserRun/23316225

Ist ein 3200er Memorykit. Wahrscheinlich ist da noch Potenzial, da in Notebooks Timings ziemlich schlaff sind und wer weiß, was da eingestellt ist. Aber die Gesamtlatenz ist so unspektakulär, dass es auf den ersten Blick (ohne Überraschung) nach der üblich hohen IF Latenz aussieht.



Ausserdem, schon bei RR konnte sich der halbe Cache in Benchmarks durchaus mal mit 5-10% Leistungseinbusse bemerkbar machen gegenüber den normalen Ryzen. Das wird nun mit einem Viertel des Caches sicher nicht besser.
(Theoretisch könnte Renoir einen Vorteil haben bei den Speicherlatenzen, ich schätze aber mal das wird nicht der Fall sein weil das IF aus Stromspargründen nicht allzu schnell ist und womöglich immer asynchron zum Speichertakt ist - auf jeden Fall rechne ich schon mal damit dass von der Speicherbandbreite, die ja mit lpddr4x höher ist als bei den Desktop-Chips, nicht alles in einem CCX ankommt, zumindest nicht bei Verwendung von schnellem Speicher. Das ist aber alles Spekulation.)
Ich bin da auch skeptisch. Ja L3 Latenz bringt sicherlich was. Aber wenn die Hitrate deutlich sinkt, fällt man in der Latency Ladder oft in eine Schlucht und muss auf den RAM warten. Da es auch Zen 2 ist, gehe ich vom gleichen (bzw nicht massiv besseren Prefetcher aus als bei Matisse).
Man wird leider für genauere Untersuchungen noch warten müssen, bis es eine Desktopversion gibt. Dann kann man mal schauen, was bei gleichem RAM Takt und Timings für Latenzen beim RAM ggü Matisse drin ist und mal mit einer dGPU schauen, wie die Performance in Spielen taktnormiert aussieht. Je nach Spiel und Szene kann die Hitrate entweder gut sein (kein Flaschenhals) oder deutlich schlechter (bremst dann die uArch).
Für Laptops sicherlich zweitrangig - interessant finde ich es dennoch. :)

ich gehe davon aus, der wird auch mit LP4266X synchron laufen.
Träum weiter. ;) Die IF würde dann mit 2133 MHz laufen, was sogar bei Matisse fernab dessen ist, was in der Mehrheit der CPUs überhaupt lauffähig ist (schafft das überhaupt ein einzelner Ryzen? Ich habe im Höchstfall in Foren mal was von 19xx MHz gelesen in golden samples...). Dazu würde sie unnötig viel elektrische Leistung aufnehmen. Das ist bei Notebooks nicht sinnvoll. Die gemessene Latenz sah auch nicht so toll aus.

SKYNET
2020-01-08, 10:42:51
Die I/O Latenz kommt größtenteils von der IF. Die Kommunikation zwischen CCD und I/O Die scheint bei Matisse vs Pinnacle Ridge ~5-10 ns auszumachen.

Die gemessene Memorylatency scheint mit 94 ns ziemlich schlecht zu sein.
https://www.userbenchmark.com/UserRun/23316225

Ist ein 3200er Memorykit. Wahrscheinlich ist da noch Potenzial, da in Notebooks Timings ziemlich schlaff sind und wer weiß, was da eingestellt ist. Aber die Gesamtlatenz ist so unspektakulär, dass es auf den ersten Blick (ohne Überraschung) nach der üblich hohen IF Latenz aussieht.



Ich bin da auch skeptisch. Ja L3 Latenz bringt sicherlich was. Aber wenn die Hitrate deutlich sinkt, fällt man in der Latency Ladder oft in eine Schlucht und muss auf den RAM warten. Da es auch Zen 2 ist, gehe ich vom gleichen (bzw nicht massiv besseren Prefetcher aus als bei Matisse).
Man wird leider für genauere Untersuchungen noch warten müssen, bis es eine Desktopversion gibt. Dann kann man mal schauen, was bei gleichem RAM Takt und Timings für Latenzen beim RAM ggü Matisse drin ist und mal mit einer dGPU schauen, wie die Performance in Spielen taktnormiert aussieht. Je nach Spiel und Szene kann die Hitrate entweder gut sein (kein Flaschenhals) oder deutlich schlechter (bremst dann die uArch).
Für Laptops sicherlich zweitrangig - interessant finde ich es dennoch. :)


Träum weiter. ;) Die IF würde dann mit 2133 MHz laufen, was sogar bei Matisse fernab dessen ist, was in der Mehrheit der CPUs überhaupt lauffähig ist (schafft das überhaupt ein einzelner Ryzen? Ich habe im Höchstfall in Foren mal was von 19xx MHz gelesen in golden samples...). Dazu würde sie unnötig viel elektrische Leistung aufnehmen. Das ist bei Notebooks nicht sinnvoll. Die gemessene Latenz sah auch nicht so toll aus.


die bandbreite ist allerdings auch unterirdisch für 3200er dualchannel... das sollten ca. 10GB/s mehr sein... heisst irgendwo drückt der schuh.

Leonidas
2020-01-08, 10:50:09
Das spricht dafür, dass der Markt für große iGPUs relativ klein zu sein scheint.


So klein, das selbst Intel nicht Kaby Lake G durchbringen konnte. Jemand sagte kürzlich "Richtungskorrektur" - genau das ist es. Chipfläche dafür, was Verkaufsargumente bringt.

In der Praxis war es doch auch immer so, das sobald der Notebook-Hersteller wirklich protzen wollte, doch sowieso verstandfrei eine dGPU eingebaut wurde. AMD will nun endlich auch mal wieder in die normalen und dicken Notebooks - da braucht man keine fette iGPU.

SKYNET
2020-01-08, 11:23:42
So klein, das selbst Intel nicht Kaby Lake G durchbringen konnte. Jemand sagte kürzlich "Richtungskorrektur" - genau das ist es. Chipfläche dafür, was Verkaufsargumente bringt.

In der Praxis war es doch auch immer so, das sobald der Notebook-Hersteller wirklich protzen wollte, doch sowieso verstandfrei eine dGPU eingebaut wurde. AMD will nun endlich auch mal wieder in die normalen und dicken Notebooks - da braucht man keine fette iGPU.


hätte trotzem gerne nen 12er mit ner vega16 und 8C/16T gehabt ;)

mczak
2020-01-08, 11:33:27
die bandbreite ist allerdings auch unterirdisch für 3200er dualchannel... das sollten ca. 10GB/s mehr sein... heisst irgendwo drückt der schuh.
Habe ich bisher glatt übersehen dass da auch Bandbreitenwerte sind... Keine Ahnung wie zuverlässig der Test ist, aber RR mit ddr4-3200 erreicht ungefähr dieselben MC Werte (etwas schlechter bei Read/Write, aber besser bei Mixed). Bei SC allerdings sind die Renoir Werte deutlich schlechter (was zu meiner Vermutung passen würde dass das IF nicht genug Bandbreite pro CCX hergibt).

Pirx
2020-01-08, 11:38:09
hätte trotzem gerne nen 12er mit ner vega16 gehabt und 8C/16T ;)
Metoo(:upara:) - und wie soll das auf dem Desktop aussehen?
Kommt für den evtl. doch ne Chiplet-Lösung?

Achill
2020-01-08, 12:04:56
Falsch.

Wurde schon von AMD bestätigt, dass der IF unabhängig vom Speicher taktet.


https://www.anandtech.com/show/15324/amd-ryzen-4000-mobile-apus-7nm-8core-on-both-15w-and-45w-coming-q1

Was ja gar nicht negativ sein muss, entscheidend ist doch, ob sich die HW in einen optimalen Zustand schaltet. Wenn Leistung abgerufen wird, dann wäre dies wahrscheinlich ein sync. Takt bei IF und Speicher und wir schon im Zitat ausgeführt, wäre im Idle der optimale Zustand jener, wo sich am meisten Energie sparen lässt, async. und niedriger Takt.

bloodflash
2020-01-08, 12:17:16
da braucht man keine fette iGPU.


Ich verstehe Euch einfach nicht ;)


Der Ryzen 4800u liefert die schnellste und fetteste iGPU die die Welt je gesehen hat!


20% vor dem Besten was der Mitbewerber anzubieten hat!


4x so schnell (teilweise sogar mehr) wie eine GT2!


Mindestens auf dem Niveau des schon guten Vorgängers.


Für mich ist das die "fette iGPU" die ich mir in einem Notebook (oder kleinem Desktop) wünsche.


Angesichts der Limitierungen so einer Plattform (RAM, Kühlung, Stromverbrauch), ist das doch der beste Kompromiss.


Würde auf meinem 14" Notebook für 720p reichen oder ältere Spiele nativ in 1080p.

Leonidas
2020-01-08, 12:41:04
Der Ryzen 4800u liefert die schnellste und fetteste iGPU die die Welt je gesehen hat!
20% vor dem Besten was der Mitbewerber anzubieten hat!


Laut AMDs eigenen Benchmarks. Die will ich erstmal unabhängig validiert sehen, ehe ich es glaube. Machbar ist es, aber dennoch besteht der technische Nachteil von weniger CUs. Also zuerst den Beweis, dann der Glaube.

Aber wenn Du jetzt nur auf die grobe Performance-Klasse anspielst: Logo, die ist da. Hatte AMD aber auch früher schon.

pipin
2020-01-08, 13:18:13
Laut AMDs eigenen Benchmarks. Die will ich erstmal unabhängig validiert sehen, ehe ich es glaube. Machbar ist es, aber dennoch besteht der technische Nachteil von weniger CUs. Also zuerst den Beweis, dann der Glaube.

AMD ist eh sehr sparsam mit genaueren Infos, was die integrierte Grafik kann.

Vielleicht sind wir aber aus Zen 2 Zeiten einfach sehr verwöhnt, da es dort von AMD wenigstens etwas tiefergehende Infos bereits weit vor Launch gab.

SKYNET
2020-01-08, 14:44:03
Laut AMDs eigenen Benchmarks. Die will ich erstmal unabhängig validiert sehen, ehe ich es glaube. Machbar ist es, aber dennoch besteht der technische Nachteil von weniger CUs. Also zuerst den Beweis, dann der Glaube.

Aber wenn Du jetzt nur auf die grobe Performance-Klasse anspielst: Logo, die ist da. Hatte AMD aber auch früher schon.


viel eher frage ich mich ja, ob sie dem desktop ableger mehr CUs spendieren...

hatten die vorgänger ja auch schon... evtl. kommt da ja die 16CU vega, die die gerüchteküche serviert hatte :uponder: wenn man da dann ne gute CPU erwischt die 1900 IF macht, sollte das ding gut abgehen, und 1080p sogar mit mittleren grafikeinstellungen packen... dann könnte ich endlich mal die 224A SoC versorgung von meinem board austesten, wie hoch die vega gehen würde(2.1GHz wäre natürlich schon nett --> leistungsklasse 280X). ;D

mironicus
2020-01-08, 14:49:12
Zwei Gaming-Laptops von MSI mit Renoir. Leider nur Sub-1000 Dollar-Teile mit Radeon 5500, dafür aber 8 Kerne/16 Threads. So ein Gerät mit den technischen Daten in ein schöneres Gehäuse und ohne Plastik-Blingbling und schon wäre man auf der Gewinnerstraße. Ja, ein Surface Book 3 mit den technischen Daten wäre der Hammer.

https://www.youtube.com/watch?v=SOPhkWbh6eo

Wex
2020-01-08, 15:22:14
Ich verstehe Euch einfach nicht ;)

Der Ryzen 4800u liefert die schnellste und fetteste iGPU die die Welt je gesehen hat!

20% vor dem Besten was der Mitbewerber anzubieten hat!

4x so schnell (teilweise sogar mehr) wie eine GT2!

Mindestens auf dem Niveau des schon guten Vorgängers.

Für mich ist das die "fette iGPU" die ich mir in einem Notebook (oder kleinem Desktop) wünsche.

Angesichts der Limitierungen so einer Plattform (RAM, Kühlung, Stromverbrauch), ist das doch der beste Kompromiss.

Würde auf meinem 14" Notebook für 720p reichen oder ältere Spiele nativ in 1080p.

Tja, weil durch den 7nm Prozess, dem stark verbesserten IPC durch die Zen2 Cores und der Unterstützung für LPDDR4 deutlich mehr drin gewesen wäre auf Seiten der iGPU.

Deswegen leichte Enttäuschung auf meiner Seite. Nicht dass der Chip nicht gut genug wäre - ein Upgrade ist ein Upgrade, vor allem da Intel nur Mist geliefert hat mit IceLake.

Aber aus meiner Hardware Porn Perspektive wäre sicherlich deutlich mehr gegangen. Vor allem da wir uns schon mit Vega begnügen müssen und nicht RDNA bekommen.(will jetzt kein fass aufmachen bezüglich effizienz in low mhz bereichen, die Vega APU taktet bis auf 1750 Mhz im 4800U, das ist auch nicht mehr low mhz)

Erinnert mich jetzt an Nvidia und dem zurück halten von Performance/7nm Chips, auf Grund von fehlender Konkurrenz. Amd ist auch einfach nur hoch genug übers Stöckchen gesprungen nur um Intels iGPU zu besiegen und in ST/MT/iGPU vorne zu landen.

Wie gesagt, toller Chip, jedoch nicht am technisch machbaren Limit. Und das finde ich als Hardware Enthusiast schade.

(Gekauft wirds trotzdem :D)

unl34shed
2020-01-08, 15:29:24
Die Frage ist was mehr CUs wirklich gebracht hätten, beim 3700u sieht man auch keinen Vorteil zum 3500u. Vermutlich hauptsächlich wegen der geringen TDP. Hier hat man dann noch die doppelten CPU Kerne im selben thermal Budget.

mboeller
2020-01-08, 16:13:04
hätte trotzem gerne nen 12er mit ner vega16 und 8C/16T gehabt ;)

ziemlich nutzlos IMHO

eine RX560 mit 16 CU @ 1175-1275MHz hat 112GB/sec Bandbreite.

LDDR4 4266 erreicht gerade mal die Hälfte der Bandbreite.

Bei mehr als 8 CU würde nur sehr viel Energie und Die-Area vergeudet werden.

https://de.wikipedia.org/wiki/AMD-Radeon-500-Serie

Complicated
2020-01-08, 17:11:54
Und wenn die CUs so wie bei FP und Double Precision zusammengeschaltet verwendet werden können? Also 2 CUs an den selben Daten arbeiten, dann wären auf Renoir tatsächlich 16 CUs vorhanden in so einer Art Dual-CU wie bei Navi, nur eben mit Vega CUs die reorgansiert wurden. Dann wäre es ein Hammer Bluf von AMD.
Ist das überhaupt möglich?
Siehe die Beschreibungen https://www.pcgamesn.com/amd/navi-rdna-architecture-release-date-specs-performance

Mir fällt halt direkt auf wie ähnlich sich die Zahlen sind. Navi 10 hat 4 MB gemeinsamen L2 Cache ...

CrazyIvan
2020-01-08, 17:24:21
Die I/O Latenz kommt größtenteils von der IF. Die Kommunikation zwischen CCD und I/O Die scheint bei Matisse vs Pinnacle Ridge ~5-10 ns auszumachen.
[...]
Man wird leider für genauere Untersuchungen noch warten müssen, bis es eine Desktopversion gibt. Dann kann man mal schauen, was bei gleichem RAM Takt und Timings für Latenzen beim RAM ggü Matisse drin ist und mal mit einer dGPU schauen, wie die Performance in Spielen taktnormiert aussieht.


Hallo Robbi,

Dein Vergleich hinkt leider auch ein wenig, da Architekturverbesserungen am iMC oder Core-Bereich bei Matisse den Performance-Hit durch IFOP möglicherweise bereits zu weiten Teilen kompensiert haben könnten.
Ich will damit nicht sagen, dass Du nicht recht hast - aber Gewissheit werden wir wohl tatsächlich erst im direkten Vergleich Ryzen 4000G vs. 3000 auf dem Desktop haben.

basix
2020-01-08, 17:25:23
Und wenn die CUs so wie bei FP und Double Precision zusammengeschaltet verwendet werden können? Also 2 CUs an den selben Daten arbeiten, dann wären auf Renoir tatsächlich 16 CUs vorhanden in so einer Art Dual-CU wie bei Navi, nur eben mit Vega CUs die reorgansiert wurden. Dann wäre es ein Hammer Bluf von AMD.
Ist das überhaupt möglich?

Das wäre der Knüller :freak:

150mm2 Die Size sagt aber etwas anderes. Ausserdem brächte solch eine Dual-CU massig Treibernacharbeit mit sich, wohingegen eine standard Vega fast out of the Box läuft. Ich denke eher, dass die Leistungssteigerung via Takt kommt.

Berniyh
2020-01-08, 17:28:13
Jemand sagte kürzlich "Richtungskorrektur" - genau das ist es. Chipfläche dafür, was Verkaufsargumente bringt.
In der Realität ist es doch so, dass eine IGP in der Desktop-Darstellung nicht limitieren darf (bis sagen wir mal 2×4k) und das genügt dann auch schon.
Wirklich zocken wird doch keiner damit der halbwegs klar denken kann.
Viel wichtiger dazu ist eigentlich sogar eher noch, dass Dinge wie x264 und hevc Decoding (evtl. auch Encoding) bis 4k beherrscht werden.

In Zukunft wird das sogar noch stärker werden, denn in Zeiten von TB3 bzw. bald USB4 wird man auch schlicht eine eGPU dran hängen können um dann vernünftig zu zocken, selbst wenn man keine extra GPU im Laptop integriert hat.
(Frage mich übrigens ob es zukünftig evtl. sogar eCPU (+RAM) geben wird? Die OS-Programmierer hätten da jedenfalls ihren Spaß. ^^ Wobei zumindest unter Linux CPU Hot-Plugging meines Wissens schon unterstützt wird.)

Meine Einschätzung dazu ist, dass AMD genau das Richtige getan hat. Die IGP war eh bandbreiten-limitiert und dann lieber die Chipfläche einsparen und den Chip günstiger machen.

Pirx
2020-01-08, 18:27:12
klar würde und wird man damit "zocken", vor allem ältere Spiele (wie Gothic 2 mit D3D11^^)
Viele brauchen "schon" mit RR/Picasso keine Grafikkarte mehr.

Grendizer
2020-01-08, 18:43:08
klar würde und wird man damit "zocken", vor allem ältere Spiele (wie Gothic 2 mit D3D11^^)
Viele brauchen "schon" mit RR/Picasso keine Grafikkarte mehr.

Kann man machen, muss man aber nicht. Wenn ich schon höre das man dann auf 720p geht. Interessant wäre für mich was da am Akku rauskommt. Mein Acer Nitro 5 mit Intel 6Core und NVIDIA 1060 ist da nicht mehr spielefähig. Verhält sich der Renoir da anders? Sind ja deutlich weniger Watt? Oder wird da auch massiv gedrosselt ?

Complicated
2020-01-08, 19:26:51
Das wäre der Knüller :freak:

150mm2 Die Size sagt aber etwas anderes. Ausserdem brächte solch eine Dual-CU massig Treibernacharbeit mit sich, wohingegen eine standard Vega fast out of the Box läuft. Ich denke eher, dass die Leistungssteigerung via Takt kommt.
Dual-CUs gibt es doch schon bei Navi - also Treiberseitig sehe ich hier eher keine Probleme. Und speckt man Vega ab für eine APU könnte da ganz schön Platzersparnis dabei raus kommen. Was wurde denn alles reduziert von Vega 14nm -> Navi10 7nm (grob 500 mm²->250 mm²). Der ganze Compute-Kram wird noch weniger gebraucht in einer mobilen APU.

Ich frage mich einfach ob das nur deshalb noch Vega heisst, weil Navi zu dem Zeitpunkt des Designs eben noch nicht ganz fertig war und die APU trotzdem einige Upgrades erhalten hat.

mczak
2020-01-08, 19:43:01
Verhält sich der Renoir da anders? Sind ja deutlich weniger Watt? Oder wird da auch massiv gedrosselt ?
Die 15W APUs in Notebooks drosseln normalerweise im Akkubetrieb nicht stärker als am Netz. Gibt aber IIRC durchaus Ausnahmen dass das TDP Limit im Akkubetrieb anders ist.

SKYNET
2020-01-08, 19:51:40
ziemlich nutzlos IMHO

eine RX560 mit 16 CU @ 1175-1275MHz hat 112GB/sec Bandbreite.

LDDR4 4266 erreicht gerade mal die Hälfte der Bandbreite.

Bei mehr als 8 CU würde nur sehr viel Energie und Die-Area vergeudet werden.

https://de.wikipedia.org/wiki/AMD-Radeon-500-Serie


gibt genug sachen die ohne bandbreite auskommen bei games... ;)

BoMbY
2020-01-08, 20:36:35
Nach Renoir und Dali gibt es jetzt auch noch Pollock (https://lists.freedesktop.org/archives/amd-gfx/2020-January/044548.html). Via Komachi (https://twitter.com/KOMACHI_ENSAKA/status/1214942189039439872).

LasterCluster
2020-01-08, 20:49:55
#define RAVEN2_A0 0x81
+#define RAVEN2_15D8_REV_94 0x94
+#define RAVEN2_15D8_REV_95 0x95
#define RAVEN2_15D8_REV_E3 0xE3
#define RAVEN2_15D8_REV_E4 0xE4
+#define RAVEN2_15D8_REV_E9 0xE9
+#define RAVEN2_15D8_REV_EA 0xEA
+#define RAVEN2_15D8_REV_EB 0xEB
#define RAVEN1_F0 0xF0
#define RAVEN_UNKNOWN 0xFF
#ifndef ASICREV_IS_RAVEN
@@ -149,6 +154,11 @@
#define ASICREV_IS_RV1_F0(eChipRev) ((eChipRev >= RAVEN1_F0) && (eChipRev < RAVEN_UNKNOWN))
#define ASICREV_IS_DALI(eChipRev) ((eChipRev == RAVEN2_15D8_REV_E3) \
|| (eChipRev == RAVEN2_15D8_REV_E4))
+#define ASICREV_IS_POLLOCK(eChipRev) (eChipRev == RAVEN2_15D8_REV_94 \
+ || eChipRev == RAVEN2_15D8_REV_95 \
+ || eChipRev == RAVEN2_15D8_REV_E9 \
+ || eChipRev == RAVEN2_15D8_REV_EA \
+ || eChipRev == RAVEN2_15D8_REV_EB)

Daraus lässt sich folgendes schließen: Es gibt verschiedene Raven2 Revisionen/Varianten von denen manche Dali und manche Pollock sind. Nur RAVEN2_A0 0x81 hat keine Zuordnung und ist vlt einfach ein altes Stepping, das nicht (mehr) genutzt wird.

mboeller
2020-01-08, 20:57:29
mal was anderes ...

Renoir hat 15w, vielleicht ja auch 25w. Die GPU darf davon vielleicht 12-24w verbraten. Und das bei 8 CU @ 1750MHz

Wenn man das per Milchmädchen-Rechnung umrechnet kommt ein

96CU Monster mit 144w - 288w dabei raus (nur der SoC).

96CU x 1750MHz = 21,5 TFlops

Navi lastet die Einheiten ja besser aus als Vega, das heißt so einfach geht das da nicht, aber vielleicht hat es AMD durch die Optimierungen für Renoir endlich geschafft die Effizienz der GPU's allgemein (massiv) zu verbessern. Ich glaube im Interview bei anandtech stand ja so was.

yep:


AnandTech: The rearchitect of Vega for 7nm has been given a +56% performance increase. Does this mean that there was a lot left on the table with the design for 14/12nm? I’m trying to understand how you were able to pull so much extra performance from a simple process node change.

LS: When we put Vega into a mobile form factor with Ryzen 4000, we learned a lot about power optimization. 7nm was a part of it sure, but it was also a very power optimized design of that architecture. The really good thing about that is that what we learned is all applicable to Navi as well. David’s team put a huge focus on performance per watt, and that really comes out of the mobile form factor, and so I’m pleased with what they are doing. You will see a lot of that technology will also impact when you see Navi in a mobile form factor as well.


https://www.anandtech.com/show/15344/amd-at-ces-2020-qa-with-dr-lisa-su

Da Renoir schon eine Weile "rumgeistert" sollten/könnten diese Optimierungen auch beim großen Navi mit dabei sein.

Auf jeden Fall bin ich auf die Renoir Reviews gespannt. Hoffentlich gibt es dann auch gute Verbrauchsmessungen der GPU "alleine"

Complicated
2020-01-08, 20:59:10
Ich bin ganz erschrocken im ersten Moment und dachte AMD lässt jetzt bei Intel fertigen:
drivers/gpu/drm/amd/display/include/dal_asic_id.h | 10 ++++++++++;D;D;D;D;D;D;D

LasterCluster
2020-01-08, 21:00:34
Ich würde aber erst einmal davon ausgehen, dass die genannten Optimierungen für APUs gelten. Die gewonnen Erkenntnisse von Renoir kann man dann auch für APUs mit Navi gebrauchen.

pipin
2020-01-08, 21:46:36
Nach Renoir und Dali gibt es jetzt auch noch Pollock (https://lists.freedesktop.org/archives/amd-gfx/2020-January/044548.html). Via Komachi (https://twitter.com/KOMACHI_ENSAKA/status/1214942189039439872).

Hach verdammt, wo stecken wir den denn jetzt noch hin?

Dali hat 15W, macht es für irgendwas Sinn davon noch ne Low-Power Variante anzulegen?

Oder AMD hat die Codenamen für die Embedded Varianten verworfen, da sollten eigentlich dieses Jahr eventuell noch "Grey Hawk" mit 10 bis 35 Watt und "River Hawk" mit 4 bis 15 Watt kommen.

Complicated
2020-01-08, 23:28:33
Naja vielleicht kommt nun doch noch eine 4C APU mit 16 iGPU CUs? Ich meine irgendwie ist es schon seltsam, dass es bisher nur 2 oder 8 Core für Mobile gibt.

Unicous
2020-01-08, 23:48:35
:confused:

Hast du den 4300U ausgeblendet?:confused:

Achso ein eigener Die?

Warum... damit kann AMD alles abdecken.