PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Fragman
2018-10-05, 17:21:14
Natuerlich werden sie die zum Laufen bekommen, die Frage ist nur wann genau.
7nm wird ja jetzt auch "nur" 9 Monate eher fertig, wie es im Moment aussieht, fuer niedrige Stueckzahlen bei komplexem Silizium. Intel hatte den Mund zu voll genommen mit der viel zu fruehen Ankeundigung. Die echte Massenfertigung wird zeitlich dann wohl nicht mehr soweit auseinander sein.

Linmoum
2018-10-05, 17:21:18
~10% hat man schon mit dem 2700X ggü. dem 1800X rausgeholt, da wird der Sprung auf 7nm ganz sicher nicht nur 5-10% mehr als das bringen, was Zen+ als simpler Refresh gebracht hat.

amdfanuwe
2018-10-05, 17:28:48
Natürlich wird es keinen Riesensprung mehr geben wie bei Bulldozer -> Zen, aber mehr als 10% plus Taktratensteigerung sollten schon drin sein.
Taktratensteigerung hat nichts mit IPC zu tun.
Der Takt hängt von Design und Prozess ab.
Design: Signallaufzeiten, Hotspots, abstand der Leiterbahnen wegen Kapazität etc.
Prozess: Stromverbrauch beim Schalten, Schaltgeschwindigkeit der Transistoren.
Bei höherer Spannung schalten die Transistoren schneller, dafür verbrauchen sie aber auch mehr.
Muß halt alles für den Verbraucher in einem akzeptablem Rahmen liegen.

Dural
2018-10-05, 17:33:22
Was für ein mülliges Gelaber. Die Zen2 Entwicklung wurde schon deutlich vor Release von Zen"1" begonnen, bzw. es sind parallel mehrere Teams daran beteiligt.

Dural hat keinen blassen Schimmer und macht nichts weiter als sämtliche Threads vollzumüllen. Checkt es doch endlich mal.:rolleyes:


Sagt gerade der richtige... :rolleyes:

Wollen wir Wetten? Das ding wird Takt zu Takt keine grössere IPC Steigerung haben.

w0mbat
2018-10-05, 17:35:55
Definiere erstmal, was du unter "keine größere IPC Steigerung" verstehst.

Opprobrium
2018-10-05, 17:37:39
Taktratensteigerung hat nichts mit IPC zu tun.

Deshalb sag ich ja 10% durch diverse Optimierungen plus die Taktratensteigerung. Das IPC nichts mit Taktratensteigerung zu tun hat impliziert ja schon der Begriff IPC ;)

Am meisten bin ich eigenlich darauf gespannt, ob es mit Zen2 gleichzeitig noch ein Infinity Fabric 2 gibt, habe dazu aber leider noch nichts gefunden. Da könnte man nämlich noch einiges optimieren. Momentan ist es ja vor allem bei den "zusammengeklebpten" CPUs für einen nicht unerheblichen Teil des Stromverbrauchs (https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4) verantwortlich. Wenn man da was sparsameres hinbekäme könnte man vermutlich alleine dadurch noch ein paar hundert Mhz rauskitzeln. Außerdem ist es an den Speichertakt gekoppelt, was mit ein Grund für die "Anfälligkeit" der Ryzen Leistung in Hinischt auf den Speicher ist.

MR2
2018-10-05, 17:38:04
Taktratensteigerung hat nichts mit IPC zu tun.
...

Deshalb schrieb er ja:
"aber mehr als 10% plus Taktratensteigerung:wink:"

Argo Zero
2018-10-05, 17:57:35
Für persönlich werdende Beiträge oder Vergleiche unter der Gürtellinie gibt es jetzt ohne Vorwarnung Punkte...

amdfanuwe
2018-10-05, 18:06:28
Deshalb schrieb er ja:
"aber mehr als 10% plus Taktratensteigerung:wink:"
ah, sorry, hatte ich glatt übersehen und deshalb falsch verstanden.

maximus_hertus
2018-10-05, 18:47:50
Ich bin mal gespannt, wie gut die Intel 9000er verfügbar sein werden und ob das einen Einfluss auf den Launch der Ryzen 3000 hat.

Noch gespannter bin ich, ob die Ankündigung von Lisa Su auch stimmen wird, dass man en 2 in 300er Boards einsetzen kann (und welche Hersteller entsprechende UEFI Updates bereitstellen).

Irgendwie glaube ich nicht so recht, dass wir die 7nm Ryzens vor der Computex / Juni sehen werden aka noch eine verdammt lange Zeit :/

dildo4u
2018-10-05, 18:56:49
Ich bin mal gespannt, wie gut die Intel 9000er verfügbar sein werden und ob das einen Einfluss auf den Launch der Ryzen 3000 hat.

Noch gespannter bin ich, ob die Ankündigung von Lisa Su auch stimmen wird, dass man en 2 in 300er Boards einsetzen kann (und welche Hersteller entsprechende UEFI Updates bereitstellen).

Irgendwie glaube ich nicht so recht, dass wir die 7nm Ryzens vor der Computex / Juni sehen werden aka noch eine verdammt lange Zeit :/
Selbst wenn sie es deutlich früher könnten,macht es kein Sinn low Yields 7nm Chips zu verkaufen so lange Intel Probleme hat überhaupt zu liefern.

Linmoum
2018-10-05, 19:03:13
Noch gespannter bin ich, ob die Ankündigung von Lisa Su auch stimmen wird, dass man en 2 in 300er Boards einsetzen kann (und welche Hersteller entsprechende UEFI Updates bereitstellen).Warum sollte das nicht stimmen? Das ist doch schon längst Fakt, James Prior hat's im Zuge des PR-Launches auch, erneut, bestätigt.
In a video posted to Facebook, James Prior, Senior Product Manage for AMD's Client Computing Group for Desktop CPUs, sits down for a chat with OverclockersUK. During the question and answer session, Prior talked about the future of AMD's Zen architecture, noting that Ryzen 2 will use the same AM4 socket as current generation Ryzen processors. He also reaffirmed AMD's plan to AM4 will remain relevant through 2020.
https://hothardware.com/news/amd-confirms-am4-socket-support-future-ryzen-processors-2020

Opprobrium
2018-10-05, 19:33:59
Selbst wenn sie es deutlich früher könnten,macht es kein Sinn low Yields 7nm Chips zu verkaufen so lange Intel Probleme hat überhaupt zu liefern.
Würd schon sagen, daß das Sinn ergäbe. Es handelt sich hier nicht um den Marktführer, der abwartet was die Konkurrenz so liefern kann. Selbst wenn es nur ein Prestigeprozessor wäre um den 9X00ern auch Leistungsmäßig, und nicht nur Preis/Leistungsmäßig paroli zu bieten.

Mit Glück gibts wieder einen Frühjahres Launch im März oder April. Kann auch gerne gestaffelt ablaufen.

Brillus
2018-10-05, 21:11:14
Mein Tip für Desktop wäre auch so April.

Ende 2018 Vega20, Januar 2019 EPYC2 (zumindest offizeller Launch bis das wirklich Server damit zu haben sind wird Servermarkt typisch bisschen dauern).

April so dann Rzyen. Und um Juni/Juli rum dan Threadripper und Navi.

Complicated
2018-10-05, 21:20:59
Ein Faktor der zu einer IPC-Steigerung führen wird und derzeit überhaupt nicht beachtet wird in der Diskussion ist PCIe 4.0. Bei bisherigen Prozessoren hat der PCIe-Komplex auch keine Rolle gespielt. Dies hat sich seit AMDs MCM-Design mit den Zeppelin-Chips geändert. Die verwendete Infinity Fabric zwischen den Dies und auch zwischen den CCX auf dem Die wurde bei Tests ja als Bremse in manchen Szenarien, besonders in Spielen, identifiziert.

Nun ist es aber so, dass es eine Abhängigkeit gibt zwischen IF und PCIe auf allen Ryzen CPUs, die bei Einführung von PCIe 4.0 zu einem doppelten Durchsatz führen könnte für die IF, ohne dass es stromhungrige Takterhöhungen gibt.
Siehe: https://en.wikichip.org/wiki/amd/infinity_fabric

https://en.wikichip.org/w/images/thumb/8/8f/amd_zeppelin_sdf_plane_block.svg/400px-amd_zeppelin_sdf_plane_block.svg.png
Infinity Fabric InterSocket (IFIS) SerDes are the second type which are used for package-to-package communications such as in two-way multiprocessing. The IFIS were designed so they could multiplexed with other protocols such as PCIe and SATA. They operate on TX/RX 16 differential data lanes at roughly 11 pJ/b. Those links are also aligned with the package pinout of standard PCIe lanes. Because they are 16-bit wide they run at 8 transfers per CAKE clock. Compared to the IFOP, the IFIS links have 8/9 of the bandwidth.
https://en.wikichip.org/w/images/thumb/b/b3/amd_if_ifis_link_example.svg/650px-amd_if_ifis_link_example.svg.png
For a system using DDR4-2666 DIMMs, the CAKEs will be operating at 1333.33 Mz meaning the IFIS will have a bidirectional bandwidth of 37.926 GB/s.
Sieht man sich die Muxed lanes an, so würde hier bei selber Frequenz durch PCIe 4.0 der doppelte Datendurchsatz möglich mit 32-bit weitem Durchsatz. Das reduziert zumindest die Inter-Die Latenz und erhöht den Durchsatz womöglich um das Doppelte (Ich spekuliere das ausdrücklich, da ich nicht weiß ob andere Faktoren dies verhindern oder abschwächen.)

Das könnte auch ein guter Grund sein eben jene CPUs vor zu ziehen, wie eben EPYC und TR, die genau davon am meisten profitieren. Doppelter IF-Durchsatz würde bei AMD sicherlich einiges bewirken und ist durch die Einführung von PCIe 4.0 fast schon konsequent. Vor allem wenn es kaum Powerbudget kostet.

Opprobrium
2018-10-05, 22:05:47
Und um Juni/Juli rum dan Threadripper und Navi.
Threadripper kam bisher immer erst im Herbst, und ich gehe auch davon aus, daß das so bleibt. Einerseits um die TR 29X0er Kunden nicht zu sehr zu verprellen, andererseits um Chips zu selektieren und zu sammeln.

Kriton
2018-10-05, 23:35:30
Wird Zen 2 (im Desktop) bereits PCIe 4.0 unterstützen?

Complicated
2018-10-05, 23:45:42
Vega 20 ist gesichert..Epyc mit Zen2 und PCIe 4.0 wäre demnach für Vega 20 ein großes Plus im Datacenter.
https://m.3dcenter.org/news/amd-erste-consumer-cpus-gpus-mit-pci-express-40-kommen-im-jahr-2019

Und bei gleichen verwendeten Dies wären dann auch die Desktop Ryzen damit ausgestattet.

SKYNET
2018-10-06, 00:20:02
Noch gespannter bin ich, ob die Ankündigung von Lisa Su auch stimmen wird, dass man en 2 in 300er Boards einsetzen kann (und welche Hersteller entsprechende UEFI Updates bereitstellen).


war AMDs versprechen das alle CPUs die bis MINDESTENS einschliesslich 2020 auf AM4 bretter der ersten generation passen :smile:

und da auch die 550/570er Chipsatz(gehe von aus das die so heissen werden) keine unterschiede bei der performance der CPU bringen werden, kann man schön sein b350/x370 behalten :cool:

SKYNET
2018-10-06, 00:22:41
Selbst wenn sie es deutlich früher könnten,macht es kein Sinn low Yields 7nm Chips zu verkaufen so lange Intel Probleme hat überhaupt zu liefern.


doch, weil wer dann einen AMD gekauft hat, wird nicht grad einen Intel kaufen... frei nach dem Motto: der frühe vogel verkauft die CPU... ;)

dargo
2018-10-06, 08:10:55
Selbst wenn sie es deutlich früher könnten,macht es kein Sinn low Yields 7nm Chips zu verkaufen so lange Intel Probleme hat überhaupt zu liefern.
So ein Unsinn... es wäre fatal wenn AMD jetzt den Druck raus lässt wo es so gut mit Ryzen läuft. In der Position sind sie noch laaange nicht was Marktanteile angeht.

robbitop
2018-10-06, 08:36:15
Zwischen Zen+ und Zen2 liegt rund ein Jahr, es würde mich überraschen wenn das gross was kommt. Da wird vor allem 7nm mitgenommen und halt mehr Kerne.

Zen+ hatte iirc nicht mal eine neue Maske. Zen ist mind seit 2016 design complete und man hat iirc schon in den letzten Zügen parallel an Zen 2 gearbeitet. Das sind sicherlich 2,5 Jahre Entwicklungszeit.

dargo
2018-10-06, 09:13:06
Von den Releaseabständen irgendwelche Entwicklungszeiten abzuleiten ist kompletter Humbug und das weiß Dural auch.

Complicated
2018-10-06, 13:09:51
Interessante Zusammenfassung der "Chiplet-Spekulation":
https://www.planet3dnow.de/vbulletin/threads/412508-Prognose-Board-Wie-geht-es-bei-AMD-weiter-Entwicklungen-Strategien-Massnahmen-die-AMD-betreffen-bzw-die-AMD-treffen-koennte?p=5215759&viewfull=1#post5215759
https://pbs.twimg.com/media/DowvP2dU8AAlF5c.jpg

Originalquelle: https://twitter.com/chiakokhua
https://pbs.twimg.com/media/DowvfegU0AA0JBQ.jpg:large

Lehdro
2018-10-06, 14:04:34
Wenn das wirklich so kommt: 512 Threads auf einem Board...

dargo
2018-10-06, 14:09:16
Ist es überhaupt schon bestätigt, dass ein CCX weiterhin nur 4 Cores hat?

YfOrU
2018-10-06, 14:40:07
Bei dem Ansatz wären die Chancen nicht gerade groß das es für AM4 einen zusätzlichen, deutlich kleineren System Controller gibt. Da würde man das Consumer Segment (Mobile+Desktop) eher komplett mit zwei APUs abdecken. Theoretisch wäre natürlich auch ein System Controller mit IGP denkbar. Allerdings denke ich nicht das wir hier (EMIB/Interposer) schon so weit sind das hierüber High Volume Produkte bis runter auf $50 wirtschaftlich realisierbar sind.

Meiner Ansicht nach ist es eher unwahrscheinlich das AMD den bisherigen Ansatz bereits derart früh aufgibt. Da es auf die ein oder andere Art eigentlich auch immer Auswirkungen auf die Plattformen hat erwarte ich Entwicklungen in diese Richtung erst beim Wechsel zu DDR5. Mit Chiplets bieten sich viele Möglichkeiten aber da macht es dann auch Sinn die gesamte Konzeptionierung anzupassen. Also die Nachfolger von SP3 und AM4.

Skysnake
2018-10-06, 15:36:43
Die Spekulation ist doch genau das. Eine Spekulation ogne jedweden unterbau

Complicated
2018-10-06, 17:01:11
Ist es überhaupt schon bestätigt, dass ein CCX weiterhin nur 4 Cores hat?
Nein. Aber genau da gibt es ja einen Punkt der für größere CCX ein Hürde darstellt.
Will man mehr als 4 Kerne in einem CCX verbinden benötigen die CCX mehr als 3 IF(OP)-Anbindungen. Nimmt man 8 cores und will die in einem CCX mit nur einem "Hopp" verbinden muss zunächst einmal deutlich mehr Fläche für IF in den CCX und genau da wird es dann zu kompliziert. Intel hatte das mit Ringbus gelöst, was aber eine andere Cache-Hierarchie bedeutet. AMD müsste den "victim" L3-Cache ebenfalls in "inclusive" ändern um Datenkohärenz zu erhalten.

Nimmt man jetzt aber auf jedes Chiplet einen "4-Core-CCX" und dafür die Anordnung wie in der Grafik, dann ergibt sich für jedes Chiplet nach wie vor 3 IF(IS) für die Anbindung an den Komplex (Systemcontroller) und die jeweiligen Nachbar-Chiplets, der zentrale Komplex hat genügend Platz für viele IF-Anbindungen (CAKE). Alternativ könnte man die Chiplets mit 2x4-Kern CCX belassen wie bei Zeppelin, was allerdings eine weitere "IF-Ebene" für die Anbindung zwischen den beiden CCX bedeutet. Und das wiederum kann man ja bei den derzeitigen EPYC/TR sehen. Kann man nur ein 4-Core CCX verbauen, dann entfällt diese Ebene - es stellt sich die Frage ob bei der Latenz damit eine Verbesserung oder Verschlechterung eintritt. Zumal der Memory Controller wohl ebenfalls auf den zentralen Komplex kommen würde. Ich denke das ist das kritische Element, wenn der MC nicht mehr onDie ist.

The workhorse mechanism that interfaces between the SDF and the various SerDes that link both multiple dies together and multiple chips together is the CAKE. The Coherent AMD socKet Extender (CAKE) module encodes local SDF requests onto 128-bit serialized packets each cycle and ships them over any SerDes interface. Responses are also decoded by the CAKE back to the SDF. As with everything else that is attached to the SDF, the CAKEs operate at DRAM’s MEMCLK frequency in order to eliminate clock-domain crossing latency.

PCIe 4.0 könnte hier schon der entscheidende Baustein sein, der genügend Bandbreite für die dann genutzte IF(IS) bringt. Derzeit ist ja die CXX zu CCX (IFOP) 1/9 schneller als die IFIS Anbindung off-Chip. Allerdings würde eine höhere Bandbreite bei IFIS durch PCIe 4 da durchaus eine Neubewertung sinnvoll machen. Ich denke AMD hat das auf jeden Fall mal geprüft, wie das Ergebnis ausgefallen ist schlussendlich ist für mich eine spannende Frage.

Sowohl IFIS als auch IFOP verbinden sich ja mit dem CAKE, welcher auf dem SDF-Plane sitzt. Ob der SDF-Plane mit dem I/O-Hub verschmelzen kann ist die Frage. Dann erst würde es Sinn machen ein solches Systemcontroller-Chiplet zentral zu platzieren. In 14nm war der 4-Kern-CCX ca. 44nm² groß, das dürfte nochmal deutlich schrumpfen in 7m. Dazu dann eben 3x IFIS-Links und keine Notwendigkeit für IFOP um ein weiteres CCX anzubinden.
Ich denke diese Chiplets können deutlich kleiner werden als die SoCs von Apple und Samsung.

Die Chipgröße scheint auch eine der wichtigsten Kenngröße zu sein je teurer die Fertigung wird. Man spart, wie ja allseits bekannt ist, an Kosten durch bessere Yields. Doch das ist nur der Halbe Kuchen. Die zweite Hälfte ist die deutlich schnellere Time-to-Martket. Die SoCs von Apple und Samsung sind aus diesem Grund immer die ersten die neue Fertigung adaptieren, weil bei den verbesserten Yields auch eine andere Variante möglich ist: man startet 6 Monate früher als die Konkurrenz mit akzeptablen Kosten die sich innerhalb weniger Monate auch noch ein pendeln.

Locuza
2018-10-06, 17:21:34
IFOP ist nicht CCX zu CCX, IFOP ist der Link zwischen den ganzen CPU chips auf einem Package.
CCX zu CCX läuft über den CCM (Cache Coherent Master) im SDF-Plane.
IFIS läuft über das Package hinaus, nämlich über das Mainboard und verwendet dafür die gleichen Leitungen wie für PCIe.

Für 8 Kerne in einem CCX sprechen einige Gründe dagegen, aber im Prinzip könnte AMD alles so lassen wie bisher.

Complicated
2018-10-06, 20:45:42
Siehe Beitrag #765.
Infinity Fabric InterSocket (IFIS) SerDes are the second type which are used for package-to-package communications such as in two-way multiprocessing. The IFIS were designed so they could multiplexed with other protocols such as PCIe and SATA. They operate on TX/RX 16 differential data lanes at roughly 11 pJ/b. Those links are also aligned with the package pinout of standard PCIe lanes. Because they are 16-bit wide they run at 8 transfers per CAKE clock. Compared to the IFOP, the IFIS links have 8/9 of the bandwidth.

https://en.wikichip.org/w/images/thumb/b/b3/amd_if_ifis_link_example.svg/650px-amd_if_ifis_link_example.svg.png

https://en.wikichip.org/w/images/thumb/8/8f/amd_zeppelin_sdf_plane_block.svg/400px-amd_zeppelin_sdf_plane_block.svg.png

Alles geht auf den CAKE (Coherent AMD socKet Extender), was du CCM nennst, im SDF-Plane (nicht SFD). Dort wird die Clockdomain angeglichen:
As with everything else that is attached to the SDF, the CAKEs operate at DRAM’s MEMCLK frequency in order to eliminate clock-domain crossing latency.

Du hast allerdings recht, dass die CCX über einen CCM an den SDF angebunden sind. Inter-Die ist IFOP (TR) und Inter Socket IFIS (EPYC)

Edit: Ich merke gerade ich wiederhole das selbe wie du nur in andere Reihenfolge. Du hast Recht.

Im Prinzip könnte man daher die CCM (Inter-CCX) weg lassen bei 4-Core Chiplets. So war es gemeint.

Setsul
2018-10-06, 23:07:25
CCM wird man nicht los, ob es 1 CCX oder 2 sind, irgendwie müssen die schon ans SDF.
Man kann ja auch nicht den UMC weglassen, wenn man nur einen DDR4 channel hat.

Die Überlegung ist relativ einfach: SDF-Anschlüsse von 11 auf 10 zu reduzieren ist praktisch irrelevant. Es geht also nur darum ob größere CCX mit höherer L3 Latenz und komplizierterem routing (alle L2s bekommen neue lines direkt und können aufeinander zugreifen) besser ist als kleinere CCX bei denen man früher übers IF muss (mit entsprechend schlechter Latenz und Bandbreite).

Da ändert sich durch 7nm eigentlich nichts. Also entweder waren 4 Kerne pro CCX schon immer die falsche Wahl oder es bleibt bei 4 Kernen.

YfOrU
2018-10-07, 10:00:19
Also entweder waren 4 Kerne pro CCX schon immer die falsche Wahl oder es bleibt bei 4 Kernen.

Bei der Festlegung der Größe des CPU Clusters spielt auch der kleinste gemeinsame Nenner der geplanten Designs eine Rolle. Es ist noch nicht so lange her da lag die typische Größe (ARM Cortex, Intel Atom) bei zwei statt vier Kernen pro Cluster. Mit Blick auf 14nm APUs und Semi Custom waren 4C pro Cluster eine logische Entscheidung. Bei 7nm wäre der Schritt hin zu 6C bei einem ähnlich aufgebauten Produktportfolio nicht abwegig denn Größe der Cluster zu Anzahl ist ein Kompromiss.

Dural
2018-10-07, 11:27:10
Von den Releaseabständen irgendwelche Entwicklungszeiten abzuleiten ist kompletter Humbug und das weiß Dural auch.

Klar kann man das nicht, aber zen2 dürfte einfach eine weiterentwicklung von zen+ sein. Und somit hat man von sich aus schon ein zeitfenster.

Wenn ich schaue was intel die letzten jahre an ipc raus geholt hat sind über 10% für zen2 doch reiner wunsch.
Amd hat mit zen2 eine grosse baustelle, und das ist 7nm.

N0Thing
2018-10-07, 11:36:46
Eher eine Weiterentwicklung von Zen, Zen+ hat ja kaum Änderungen gebracht. Und ob man Zen2 mit den Fortschritten der aktuellen Intel-Generationen erwarten sollte, anstatt mit denen aus den Anfängen der Core-Architektur?

SKYNET
2018-10-07, 11:40:46
Amd hat mit zen2 eine grosse baustelle, und das ist 7nm.

was für ne Baustelle? 7nm läuft wie am schnürchen :cool:

Locuza
2018-10-07, 12:07:03
Eher eine Weiterentwicklung von Zen, Zen+ hat ja kaum Änderungen gebracht. Und ob man Zen2 mit den Fortschritten der aktuellen Intel-Generationen erwarten sollte, anstatt mit denen aus den Anfängen der Core-Architektur?
Bezogen auf die Architektur selber gab es gar keine Änderungen.

AMD hat relativ gesehen einige low-hanging-fruits.
- Mehr Load/Store-Einheiten
- Single-Cycle 256-Bit ops implementieren für AVX1/2
- SMT-Implementierung verbessern, mit weniger statischer Partition.

Dank 7nm hat AMD die Möglichkeit in so etwas zu investieren.

Ich bin schon sehr gespannt, wie Zen2 aussehen wird und was AMD in das Design reinpacken konnte.
AVX512+ und TSX wäre auch cool.

unl34shed
2018-10-07, 12:08:07
Klar kann man das nicht, aber zen2 dürfte einfach eine weiterentwicklung von zen+ sein. Und somit hat man von sich aus schon ein zeitfenster.

Wenn ich schaue was intel die letzten jahre an ipc raus geholt hat sind über 10% für zen2 doch reiner wunsch.
Amd hat mit zen2 eine grosse baustelle, und das ist 7nm.

Zen2 ist aber nicht mit Intels Current Gen zu vergleichen, die schon über x Generationen optimiert wurde und bei der sich seit der 6Gen eigentlich nichts mehr getan hat außer dass Kerne dazu kamen ;). Zen ist eher mit den Anfängen der Core Gen zu vergleichen, wo es noch einiges an Optimierungspotential gab, die man leicht "fixen" kann (low hanging fruits).

Und 7nm ist nicht das Problem von AMD in Hinsicht auf die IPC, denn das hat nur etwas mit der Logik zu tun und nicht mit dem Prozess, dieser hat mehr Auswirkungen auf den Takt.

Aber mal wieder typisch, AMD wird mal wieder einfach nur als unfähig angesehen...

Und Zen und Zen+ sind mehr oder weniger identisch und basieren nur auf einem verbesserten Fertigungsprozess.

Opprobrium
2018-10-07, 12:12:43
Zen2 ist aber nicht mit Intels Current Gen zu vergleichen, die schon über x Generationen optimiert wurde und bei der sich seit der 6Gen eigentlich nichts mehr getan hat außer dass Kerne dazu kamen ;). Zen ist eher mit den Anfängen der Core Gen zu vergleichen, wo es noch einiges an Optimierungspotential gab, die man leicht "fixen" kann (low hanging fruits).

Die gleiche Diskussion gibt es hier schon seit Donnerstag, und es sind sich eigentlich (außer Dural) auch alle einig ;)

Locuza
2018-10-07, 12:20:27
In Bezug auf Intels Core-Reihe würde ich aber nicht zustimmen.
Intel hat viele Arbeiter und Ressourcen, wenn nötig könnten die auch große Teile der Architektur neu implementieren und verbessern.
Zen ist auch kein Überflieger-Design, wo man sagen könnte das hat großes Potential und ist fit für die Zukunft, während Intels Architekturen im Death End festsitzen.

unl34shed
2018-10-07, 12:20:44
Gut, dann lass Ichs bleiben, wenn es zu nix führt...

E: Und selbst mir einer Armada an Ingenieuren dauert es immer noch bis so etwas entwickelt ist.

Locuza
2018-10-07, 13:01:06
Stellt sich die Frage wohin du führen möchtest?
Das AMD mit Zen2 und Zen3 noch deutlich Verbesserungen erzielen kann und wird?
Oder das AMD Intel (langfristig?) überholen wird?

Th3o
2018-10-07, 13:41:00
Das AMD Intel überholen wird ist unwahrscheinlich. Ich hoffe auf langfristig 30%. Und ich hoffe, dass AMD aus alten Fehlern und den neuen von Intel gelernt hat und sich nicht auf Lorbeeren ausruhen wird.

Setsul
2018-10-07, 13:42:52
Bei der Festlegung der Größe des CPU Clusters spielt auch der kleinste gemeinsame Nenner der geplanten Designs eine Rolle. Es ist noch nicht so lange her da lag die typische Größe (ARM Cortex, Intel Atom) bei zwei statt vier Kernen pro Cluster. Mit Blick auf 14nm APUs und Semi Custom waren 4C pro Cluster eine logische Entscheidung. Bei 7nm wäre der Schritt hin zu 6C bei einem ähnlich aufgebauten Produktportfolio nicht abwegig denn Größe der Cluster zu Anzahl ist ein Kompromiss.
Cortex ist ein schlechter Vergleich, das war kein kleinster gemeinsamer Nenner.
Mehr als 2 große Kerne konnte man sich nicht leisten, also gabs 2+2 oder 2+4, später dann 4+4 oder 2+4+4.
Niemand hat mehrere davon zusammengehängt wie AMD.

Bedenke dass die CCX bei den APUs sowieso anders sind, halber L3 und so. Weglassen geht immer, wenn AMD 8 Kern CCX für besser gehalten hätte, dann wäre 8 Kern CCX für SR und 4 Kern CCX für RR schon möglich gewesen.

Deine Theorie beruht natürlich auch darauf, dass AMD 6C APUs will. Da müsste man sich mal die Zahlen anschauen. Generell halte ich die GPU für wichtiger aber 7nm Yields spielen eine große Rolle. Wenn hauptsächlich 4C APUs verkauft werden dann könnten 6C Dies bei nicht so guten Yields hilfreich sein. Wenn die Yields gut sind und 6C sich nicht so gut verkauft dann zahlt AMD eventuell deutlich mehr in der Herstellung für die 2C und 4C SKUs als sie müssten.

Wie immer ist natürlich nichts einfach.
Nur eins ist sicher: Bei rechteckigen Kernen sind 4 geometrisch ideal für die Latenz, alles andere führt zu unterschiedlichen (und größeren) Entfernungen.

amdfanuwe
2018-10-07, 14:55:46
Die Anzahl der Cores hängt wohl vom Kommunikationsaufwand der Cores untereinander ab. AMD hatte ja schon mal einen 6 Kerner (Thuban) und kann somit die Vor und Nachteile eines 6 Core gegenüber eine 4 Core Clusters abwägen. Bei noch mehr Cores in einem CCX müßte man wohl an einen Ringbus oder ähnliches im CCX nachdenken.
Für viele Aufgaben im Embedded, Notebook oder sonstigem LowCost Bereich reichen eigentlich dual Cores. Es deutet sich aber schon an, dass 4 Cores bald das geforderte minimum sein werden. Damit ist AMD mit einem 4 Core CCX Design erst mal gut aufgestellt.

Softwareseitig haben die 4 Core CCX auch einige Vorteile. Viele Softwarepakete sind eben auf 4C/8T abgestimmt. Da ist es einfach solchen Softwarepaketen einen CCX zur verfügung zu stellen.

Ich denke mal, es gibt viele Gründe bei den 4Core CCX zu bleiben.

basix
2018-10-07, 17:14:23
Ich hoffe ja auf 16C für den Summit Ridge / Pinnacle Ridge Nachfolger und 8C für den RR Nachfolger. Maximal 8C + Grafik wären im Mobile Bereich + Desktop optimal. Auch wenn man eine diskrete GPU dazusteckt, kann man mit der iGPU gute Dinge machen siehe Intel. Weniger als 4C wird mit 7nm vermutlich eh aussterben, deswegen kann man mit 4C / 6C gut teildefekte 8C Die verwenden und somit steigt der Yield.

Den 16C Die dann ohne Grafik auszustatten finde ich zwar schade aber verständlich. Das Die würde zu gross werden auch in 7nm und ausserdem wird man ab einer gewissen Leistungsfähigkeit der CPU sowieso eine diskrete GPU dazustecken.

MR2
2018-10-07, 18:14:43
Ich hoffe auf 8 Kerne+SMT mit 10% höherer IPC, Takt in der Basis bei 4Ghz, 2 core Turbo 5Ghz, All core Turbo 4,7Ghz bei 95W. Dann fliegt mein 1700x raus. Mehr Kerne brauche ich nicht auf AM4. Dafür gibt es TR4.

Opprobrium
2018-10-07, 18:29:36
Mehr Kerne brauche ich nicht auf AM4. Dafür gibt es TR4.
So kann man das auch sehen. Dafür, daß Threadripper nur eine wilde Idee von ein paar enthusiastischen Ingenieuren war hat sich das ganze zu einer sehr interessanten Enthusiasten Plattform entwickelt.

Nicht ausgeschlossen, daß wir mehr als 8 Kerne für den normalen Ryzen erst mit AM5 sehen...

MR2
2018-10-07, 18:51:27
Ich glaube nicht an mehr als 8 Kerne für AM4, aber wir sind ja hier nicht in der Kirche.
Interessant fand ich den DDR4-3600, der mit dem ES getestet wurde. Könnte interessant werden, für den IF.

Tobalt
2018-10-07, 23:45:30
amd sollte überall ne Minigrafik dazu packen. nicht zum rendern sondern nur zum durchschleifen der Grafik von GeForce auf freesync

Mangel76
2018-10-08, 08:40:45
amd sollte überall ne Minigrafik dazu packen. nicht zum rendern sondern nur zum durchschleifen der Grafik von GeForce auf freesync

Um damit auch dieses Argument für eine AMD-GPU zu entkräften? Für den Nutzer sicherlich ne gute Idee, für AMD aber eher kontraproduktiv!

Opprobrium
2018-10-08, 10:20:59
Gegen eine Grafikeinheit an sich hätte ich nichts einzuwenden.

Die Möglichkeit eine schnelle CPU ohne extra Grafikkarte zu betreiben ist z.Z. noch Alleinstellungsmerkmal für Intel.

Piefkee
2018-10-08, 10:40:02
https://www.chiphell.com/forum.php?mod=viewthread&tid=1916028&page=1&mobile=2

Epyc2 Cinebench Score 12500 Pkt. --> 2-Socket mit 128Cores/256Threads

Ist auf jeden Fall nicht so einfach zu fälschen wie der Screenshot von letztens...

YfOrU
2018-10-08, 11:38:21
Niemand hat mehrere davon zusammengehängt wie AMD.
Beispielsweise Intel Denverton (Atom C): 8x2C Cluster auf einem Chip. Bei Goldmont Plus wurden die Cluster auf 4C vergrößert.

Bedenke dass die CCX bei den APUs sowieso anders sind, halber L3 und so.
Die CCX sind bis auf den L3 praktisch identisch. Die 8x512KiB Blocks zu entfernen sehe ich nicht als große Modifikation. Mit Blick auf das Layout des CCX dürfte man sich diese Option von Anfang an offen gehalten haben.


Weglassen geht immer, wenn AMD 8 Kern CCX für besser gehalten hätte, dann wäre 8 Kern CCX für SR und 4 Kern CCX für RR schon möglich gewesen.
Die Skalierung der Designs über die Anzahl der Cluster ist mit Sicherheit deutlich günstiger und schneller realisierbar. 4C war bei 14nm und maximal 8C pro Chip einfach der beste Kompromiss. Ein Cluster mit dem möglichst alles abgedeckt werden kann um den R&D Aufwand im Rahmen zu halten. Intel leistet sich dagegen je nach Architektur bzw. Zielsegment Cluster, Ring Bus und Mesh. Marvell (Cavium) und Qualcomm nehmen für Enterprise Ring Bus. Sind aber beides isolierte Entwicklungen welche für nichts anderes eingesetzt werden.


Deine Theorie beruht natürlich auch darauf, dass AMD 6C APUs will. Da müsste man sich mal die Zahlen anschauen. Generell halte ich die GPU für wichtiger aber 7nm Yields spielen eine große Rolle. Wenn hauptsächlich 4C APUs verkauft werden dann könnten 6C Dies bei nicht so guten Yields hilfreich sein. Wenn die Yields gut sind und 6C sich nicht so gut verkauft dann zahlt AMD eventuell deutlich mehr in der Herstellung für die 2C und 4C SKUs als sie müssten.

Es spielt nur keine Rolle was AMD will. Von Whiskey Lake U über Coffee Lake R gibt es jetzt dann bis zu 8C mit IGP sowohl für Mobile als auch Desktop. Das ist schon heute für AMD in diversen Teilsegmenten ein Problem und bei 10/7nm wird das nicht besser. Um eine APU mit mehr als 4C wird AMD nicht herum kommen. CPUs mit IGP machen das ganz große Volumen und hier ist Intel deutlich breiter und besser aufgestellt. Mit Produkten wie SR/PR ist bezogen auf das gesamte Volumen (Marktanteile) nicht sonderlich viel zu holen. Die Masse läuft über OEMs und der Schwerpunkt ist Mobile sowie allgemein Office.

Die Frage ist hier eher ob AMD bei der 7nm APU zwei CPU Cluster zu je 4C einsetzen wird oder ob es mit Zen 2 größere Änderungen am CCX gibt und es eins mit 6C wird.

Setsul
2018-10-08, 16:26:50
Beispielsweise Intel Denverton (Atom C): 8x2C Cluster auf einem Chip. Bei Goldmont Plus wurden die Cluster auf 4C vergrößert.
Cortex ist ein schlechter Vergleich, das war kein kleinster gemeinsamer Nenner.
Mehr als 2 große Kerne konnte man sich nicht leisten, also gabs 2+2 oder 2+4, später dann 4+4 oder 2+4+4.
Niemand hat mehrere davon zusammengehängt wie AMD.

Mir fällt auch kein Goldmont Die mit 2 Kernen ein. Also auch nicht der kleinste gemeinsame Nenner.


Die CCX sind bis auf den L3 praktisch identisch. Die 8x512KiB Blocks zu entfernen sehe ich nicht als große Modifikation. Mit Blick auf das Layout des CCX dürfte man sich diese Option von Anfang an offen gehalten haben.

Dummerweise sind die Cache-Lines reihum verteilt, nach den niedrigsten Adress-Bits. Es ist keine große Modifikation, aber es wirkt sich genauso aus wie Kerne wegzulassen. Das Routing ändert sich. Das muss vorbereitet sein.
Kerne abzuschalten ist ja auch vorbereitet, also ist der Aufwand für beides sehr ähnlich.


Die Skalierung der Designs über die Anzahl der Cluster ist mit Sicherheit deutlich günstiger und schneller realisierbar. 4C war bei 14nm und maximal 8C pro Chip einfach der beste Kompromiss. Ein Cluster mit dem möglichst alles abgedeckt werden kann um den R&D Aufwand im Rahmen zu halten. Intel leistet sich dagegen je nach Architektur bzw. Zielsegment Cluster, Ring Bus und Mesh. Marvell (Cavium) und Qualcomm nehmen für Enterprise Ring Bus. Sind aber beides isolierte Entwicklungen welche für nichts anderes eingesetzt werden.

Wie gesagt, ganz so einfach ist das alles nicht.
Intel hatte den Ring Bus schon, da fließt keine Entwicklung mehr rein. Die "Cluster" sind einfach shared L2, das ist keine Kunst, macht Qualcomm auch.


Es spielt nur keine Rolle was AMD will. Von Whiskey Lake U über Coffee Lake R gibt es jetzt dann bis zu 8C mit IGP sowohl für Mobile als auch Desktop. Das ist schon heute für AMD in diversen Teilsegmenten ein Problem und bei 10/7nm wird das nicht besser. Um eine APU mit mehr als 4C wird AMD nicht herum kommen. CPUs mit IGP machen das ganz große Volumen und hier ist Intel deutlich breiter und besser aufgestellt. Mit Produkten wie SR/PR ist bezogen auf das gesamte Volumen (Marktanteile) nicht sonderlich viel zu holen. Die Masse läuft über OEMs und der Schwerpunkt ist Mobile sowie allgemein Office.

Wenn 6C/8C 10% des Marktes sind dann kann AMD darauf pfeifen.
Mal abgesehen davon, welche 8C mit IGP für Mobile meinst du?



Die Frage ist hier eher ob AMD bei der 7nm APU zwei CPU Cluster zu je 4C einsetzen wird oder ob es mit Zen 2 größere Änderungen am CCX gibt und es eins mit 6C wird.
Die Frage ist was sich AMD leisten kann. 6C oder sogar 8C als 2C und 4C APU zu verkaufen könnte bei 7nm verdammt teuer werden. Eher wird 8C und vielleicht 6C geopfert als dass man sich bei 4C mit viel größerem Volumen die Margen ruiniert.
Wenn sich AMD 2 APU Dies leisten kann, dann ist es natürlich kein Problem mehr.

Pirx
2018-10-08, 16:30:55
Tja, AMD muß DEM Vorreiter in Sachen Mehrkern-CPUs, Intel, schon langsam mal nachfolgen, wenn sie am Markt bestehen wollen. lol

SKYNET
2018-10-08, 17:20:04
amd sollte überall ne Minigrafik dazu packen. nicht zum rendern sondern nur zum durchschleifen der Grafik von GeForce auf freesync

mir würds schon langen wenn sie nen USB grafik-stick bringen würden der freesync beherrscht... DAS wäre eigentlich was *mhhh*

Opprobrium
2018-10-08, 17:25:46
mir würds schon langen wenn sie nen USB grafik-stick bringen würden der freesync beherrscht... DAS wäre eigentlich was *mhhh*

Ideal wäre zusätzlich zu den normalen Ryzen 3000ern noch durchgängig das ganze Spektrum mit 3000G Equivalenten abzudecken, gerne auch per MCM und bitte auch für TR3

basix
2018-10-08, 17:43:20
Eine 512 SP Vega in allen neuen CPUs wäre mehr als ausreichend. Ist genug weit weg von der RX560 um nicht deren Verkäufe zu kannibalisieren. Die RX550 hätte es dann schwer, aber 7nm kommt ja bald und die Performance Klassen werden sich dann verschieben.

Aber eigentlich müsste nur der RR Nachfolger möglichst früh released werden. Lieber in Q3/19 als Q4/19. 6-8C + iGPU werden dann zum neuen Sweet Spot bei Mainstream-PCs. Ich hänge momentan noch an G-Sync in 1440p, liebäugle aber mit 4k. Einen 2k$ G-Sync Monitor zu kaufen ist mir aber zuwider. Bei der nächsten CPU wird es definitiv AMD werden und deswegen wäre eine kleine iGPU für FreeSync genial. Dann hätte ich Wahlfreiheit. Am liebsten dann aber mit 16C + iGPU :D

amdfanuwe
2018-10-08, 18:37:59
6-8C + iGPU werden dann zum neuen Sweet Spot bei Mainstream-PCs.
Mainstream kommt doch grad mal aus der Dual Core Ecke raus. 4C/8T ist doch für die meisten ausreichend.
Ich denke mal, AMD wird 2 APUs rauslassen. Einen RavenRidge shrink und wer mehr GPU und CPU Leistung will ein MCM wie Intels Kaby Lake G. Ach, ist noch lange hin.

Opprobrium
2018-10-08, 18:44:54
Für BIG.little sind die PC-Softwareentwickler wohl zu träge, ansonsten wäre das doch auch mal ein interessanter Ansatz für die Zukunft, auch und gerade für mobile CPUs/APUs. Möchte aber gar nicht wissen wie sehr MS das verbocken würde :biggrin:

basix
2018-10-08, 20:40:17
Mainstream kommt doch grad mal aus der Dual Core Ecke raus. 4C/8T ist doch für die meisten ausreichend.
Ich denke mal, AMD wird 2 APUs rauslassen. Einen RavenRidge shrink und wer mehr GPU und CPU Leistung will ein MCM wie Intels Kaby Lake G. Ach, ist noch lange hin.

Ein R5 1600 / 2600 kostet knapp 150 Euro. Für mich ist das Mainstream. Nur weil Intel das nicht bieten kann :rolleyes: Ne, Spass beiseite. Es soll nur verdeutlichen, dass 6C schon vor mehr als 1 Jahr im Mainstream angekommen ist. Mit 7nm und mehr als doppelter Packdichte wird sich das nochmals in Richtung >4C verschieben. Dual-Core wird mit 7nm / 10nm aussterben. Mehr als 8C macht momentan nur bei entsprechender Creators-Software Sinn. Dennoch können bis zu 8C aber heute schon Vorteile z.B. beim Gaming bringen. Auch im Mobile Sektor werden 8C kommen, zumindest bei den High-End Geräten / Mobile Workstations. Intel ist hier bereits bei 6C. Nun was wäre das perfekte Produkt, um 4-8C im Mobile Bereich abzudecken als auch 4-8C im Mainstream Desktop? Genau, eine CPU mit iGPU. 8C + iGPU ist einfach der Sweet Spot, um mit nur 1x Chip den allergrössten Marktanteil abzudecken. Mit 7nm ist das auch relativ schlank von der Die-Size her, solange die iGPU etwa gleich gross wie bei RR bleibt (vermutlich ca. 140-150mm2). Nimmt man den 7nm Mobile Prozess eher sogar noch geringere Fläche.

Wer mehr will, kann wie du sagst ein MCM nehmen. Wenn sich die Chip / Chiplet Theorie bei EPYC 2 bestätigen sollte, hätte man hierfür ja ebenfalls schon das Basiskonstrukt.

mczak
2018-10-08, 22:24:35
Auch im Mobile Sektor werden 8C kommen, zumindest bei den High-End Geräten / Mobile Workstations.
Das Problem ist doch dass bei allen "normal kleinen" Notebooks mit 15W TDP CPUs (oder sagen wir mal 10-20W) alles was über 4C ist auch bei 7nm schlicht verschwendete Die-Fläche ist. Und da werden doch immer noch weitaus am meisten Chips abgesetzt. Da wäre also wohl sowas wie ein 4C / 12CU Chip (aber immerhin mit 8MB L3) ideal - der sollte dann auch schön klein bleiben.
Reden wir aber von 35-45W sollten es schon mindestens 6 Kerne sein. Interessanterweise bräuchte man da eigentlich bloss eine Minimal-GPU (also sowas wie 3 CU) weil solche Geräte eigentlich immer eh eine diskrete GPU enthalten (die GPU braucht man damit ohne grosse Grafiklast die Laufzeit nicht komplett in den Keller geht, wobei manche Geräte (siehe G-Sync...) auch ganz darauf verzichten könnten).
Auf dem Desktop hätte man sicher auch ganz gerne mehr als 4 Kerne mit einer APU, 4 Kerne ist halt bloss noch i3-Niveau. Die Menge der CUs könnte man sicher auch noch etwas steigern wobei mehr als 16 kaum sinnvoll sind weil man da schon miserabel skaliert wegen der Speicherbandbreite (jedenfalls ohne Spinnereien wie HBM-Cache).
Wenn man sieht wieviele verschiedene Chips da intel produziert wäre es sicher nicht verkehrt wenn AMD 2 APU-Dies (also sowas wie 4C / 12 CU und 8C / 16 CU) hätte (und ein 2x8C Die ohne GPU). Ist aber natürlich auch eine Frage der Stückzahlen ob sich das lohnt.

amdfanuwe
2018-10-08, 22:28:01
Ja, schon klar. Hatte bei Mainstream eben die Billigkistenschieber im Kopf. Beim bewußtem Anwender sind 6 Core mittlerweile minimum.
Ich vertraue mal AMD, dass sie anhand ihrer Zahlen das richtige entwickeln.

MSABK
2018-10-08, 22:30:34
Wurde in Richtung GPU in jeder CPU im Ryzen schon etwas angedeutet? Das ist der große Vorteil von Intel, irgendwann muss AMD da ja auch angreifen.

basix
2018-10-08, 22:50:37
Das Problem ist doch dass bei allen "normal kleinen" Notebooks mit 15W TDP CPUs (oder sagen wir mal 10-20W) alles was über 4C ist auch bei 7nm schlicht verschwendete Die-Fläche ist. Und da werden doch immer noch weitaus am meisten Chips abgesetzt. Da wäre also wohl sowas wie ein 4C / 12CU Chip (aber immerhin mit 8MB L3) ideal - der sollte dann auch schön klein bleiben.
Reden wir aber von 35-45W sollten es schon mindestens 6 Kerne sein.

Absolut richtiger Gedanke. Intel konnte sich das bis jetzt leisten. Bei AMD bin ich mir da nicht so sicher. Es ist einfach sehr viel Aufwand, ein neues Die und Maskenset aufzulegen. Und in 7nm ist ein 4C CCX ca. 20mm2 gross, bei 7nm Mobile vielleicht sogar nur 15mm2. Ich denke nicht, dass sich hier das Kosten/Nutzen-Verhältnis für ein neues Die lohnt. Ich bin zudem stark der Meinung, dass die APU als auch Navi in 7nm Mobile kommen werden. Dann sind wir bei vielleicht ca. 120mm2 Fläche für 8C + iGPU (ausser Navi würde deutlich grösser als Vega). Und das wiederum wäre etwa die Grösse der Kaby Lake Quad Cores welche eben in solchen 10-20W Notebooks breit verwendet werden. Ein Dual Core Kaby Lake ist etwa 100mm2 gross.

Bitte nicht falsch verstehen, 4C sind für 95% aller Notebooks sicher ausreichend. Ich sehe das einfach im Kontext von Zen ("two Die for all") als auch den finanziellen wie auch personellen Möglichkeiten von AMD. Die Pipeline ist einfach mehr als voll: V20, Navi, EPYC 2, Ryzen 3000, Zen2 + Navi APU, viel Software-Entwicklungen...alles 2018-2019. Dazu evtl. schon vorarbeiten für NextGen Konsolen oder anderweitigen Semi Custom Chips. Für eine relativ kleine Firma im Vergleich zu Intel und Nvidia ist das sehr viel Arbeit. Hier also nicht den letzten Quadratmillimeter herauszuquetschen und dafür den nächsten Entwicklungsschritt mit den frei werdenden Ressourcen zu machen ist vermutlich für AMDs Zukunft deutlich wertvoller.

MR2
2018-10-16, 19:39:35
https://mobile.twitter.com/BitsAndChipsEng

Zen+ -> Zen2: +13% IPC (Average) in scientific tasks. Not bad.
P.S. No gaming data, atm.

https://www.reddit.com/r/Amd/comments/9opcai/zen_2_ipc_13_zen/

basix
2018-10-16, 19:56:24
Zen+ -> Zen2: +13% IPC (Average) in scientific tasks. Not bad.

Nicht schlecht. Wäre ca. +16% ausgehend von Zen (Summit Ridge). Dazu noch Taktraten in der Nähe eines 9900K und Intel müsste sich warm anziehen.

Unicous
2018-10-16, 20:07:11
Warum ist die mobile Twitterseite eigentlich so ein cancer? Egal ob am Desktop oder am Smartphone failed die Seite zu laden und man muss refreshen. Mobil muss ich z.T. als workaround sogar die Seite schließen und nochmals den Link öffnen.:rolleyes:

Fänd ich schon gut, wenn Dural mal wieder einen Besen fressen muss. Aber man wird sehen ob das legit ist und was am Ende davon real übrig bleibt.:uponder:

Locuza
2018-10-16, 20:43:15
13% bei angeblichen mixed server workload bei gleichem Takt, hoffentlich ohne AVX-Anwendungen bzw. ohne starken Gebrauch davon, ansonsten würden 13% eher darauf deuten, dass Zen2 ebenso auf 128-Bit FP-Pipes setzt.

Opprobrium
2018-10-16, 21:05:40
Und das leakt kurz nach der Korrektur der Benchmarkergebnisse zum 9900K auf 12% Abstand zum 2700X ;)

Auch wenn's keine Gamingbenchmarks sind.

w0mbat
2018-10-16, 21:19:00
Damit wäre man deutlich vor Intel.

Unicous
2018-10-17, 14:06:32
Bits and Chips sagt, es wäre dieselbe Person die im auch von Zen allgemein und dem AM4 pin count erzählt hat.
https://twitter.com/BitsAndChipsEng/status/1052209386339201025


Das erhöht natürlich die Kredibilität deutlich. Was für "Benches" genutzt weiß BnC aber nicht, außer dass es "mixed tasks" waren.
https://twitter.com/BitsAndChipsEng/status/1052208715766620160

Die Frage "Server Scenario" beantwortet er mit ja, also dürfte es Epyc sein. Logisch, da Epyc ja zuerst kommt. Dem RTG Gerücht schenke ich deshalb auch weiterhin nicht wirklich viel Glauben.

SKYNET
2018-10-17, 14:19:03
von 13% ausgehend, hätte ZEN2 eine bessere pro-taktleistung als kaffeesee... wenn ryzen 3x00 mit 4.5GHz AC boost kommen sollte, wars das für den 9900k... weil epyc wird ja den krüppeligen ram(2400/2666 ECC REG) genutzt haben, ryzen wird sicherlich 3200er bekommen, das gibt nochmals nen fetten boost, somit dürfte bei gleichen takt und mem @ stock(2933 vs 3200) ryzen 3x00 locker 17-18% zulegen, bei -ich gehe stark davon aus- 300-400MHz mehr AC @ boost, wäre das ne fette klatsche für intel. ;D

amdfanuwe
2018-10-17, 15:27:45
locker 17-18% zulegen,
Wow, jetzt sind wir schon bei 18%, der nächste macht 20% draus und schon sind alle enttäuscht, wenn die 13% nur in bestimmten Szenarien kommen und es im Durchschnitt bei Games nur 4% sind.
Also bitte, mal den Ball flach halten und solide Bestätigungen abwarten.

Fragman
2018-10-17, 15:58:07
Also bitte, mal den Ball flach halten und solide Bestätigungen abwarten.

Jep, man sollte realistisch bleiben. Intel hat schliesslich einen eigenen "7nm" aka 10nm Prozess fuer Ende 2019 am Start (wenn nicht wieder Probleme auftreten) und Zen2 wird dagegen antreten müssen.

DarknessFalls
2018-10-17, 16:03:06
Ende 2019 gibt es maximal Server-CPUs von Intel in 10nm, Consumer 2020.

amdfanuwe
2018-10-17, 16:15:04
Ende 2019 gibt es maximal Server-CPUs von Intel in 10nm, Consumer 2020.
Gib mal ne Quelle dazu. Nach meinen bisherigen Informationen kommt erst Konsumer, dann Server.

w0mbat
2018-10-17, 16:19:12
Ja, bei Intel soll 10nm consumer zuerst kommen. Bzw. gibt es als 2C mobile ja auch schon.

DarknessFalls
2018-10-17, 16:27:05
Ich ruder mal kurz zurück... es ist so wie Wombat schrieb, ich hab's verbuchselt. My bad!

Allerdings war zuletzt ja schon die Rede davon, dass Ice Lake spät in 2019 kommen soll, einige unken gar von 2020. Aber man wird sehen; Intel selbst war ja letztens in irgendeiner Pressemitteilung wieder optimistischer. Es bleibt jedenfalls spannend. :D

MR2
2018-10-17, 16:29:47
AMD selbst verspricht 35% von Epyc1 auf "Rome". Also Takt+IPC(+Ram??) bei den Serverprozessoren und wohl Server Workloads. Wird auf jeden Fall interessant für Ryzen3000.

Hauptsache man kann auch wieder im April rum launchen. Spätenstens im Januar zur CES wissen wir mehr. Da wird es bestimmt einen schönen Ausblick geben!

mczak
2018-10-17, 17:19:22
Ja, bei Intel soll 10nm consumer zuerst kommen. Bzw. gibt es als 2C mobile ja auch schon.
Naja nicht wirklich. Die paar Dutzend halb kaputten Chips zählen nicht :-).
Aber Ice Lake SP kommt sicher nicht vor 2H 2020. Würde es den früher geben würde intel garantiert nicht voher noch 2 andere Server Chips rausbringen (Cascade Lake, Cooper Lake).

amdfanuwe
2018-10-17, 17:22:14
AMD selbst verspricht 35% von Epyc1 auf "Rome". Also Takt+IPC(+Ram??) bei den Serverprozessoren und wohl Server Workloads.
35% bessere Effizienz. Das sagt nichts über IPC oder Taktverhalten aus.

Locuza
2018-10-17, 17:26:13
AMD sprach auch nicht von der Effizienz, sondern >35% Performance, was sich aber nur allgemein auf den 7nm Prozess bezogen hat und an sich so wertlos ist, da man nicht weiß wie AMD die CPU- und GPU-Produkte gestalten wird und welcher Balancepunkt zwischen Effizienz und Takt gewählt wird.
https://www.techpowerup.com/img/Mjftu2qOKaluFml9.jpg

basix
2018-10-17, 17:44:30
Jepp. Performance wird eher 2x+ raufgehen, weil das die Effiziensteigerung Perf/W wiederspiegelt.

HOT
2018-10-17, 18:47:14
Jep, man sollte realistisch bleiben. Intel hat schliesslich einen eigenen "7nm" aka 10nm Prozess fuer Ende 2019 am Start (wenn nicht wieder Probleme auftreten) und Zen2 wird dagegen antreten müssen.
Nur mit dem Unterschied, dass Intel selbst bei 10nm+ kein Performanceupgrade erwartet und auch von Icelake selbst kaum mehr IPC erwartet wird dafür aber AVX512. Ich würd eher sagen, die 10nm bringen Coffeelake in ordentliche TDP-Bahnen zurück und das wars. Bei Server ist das wieder was anderes, da hier ja mehr Kerne und mehr Perf/W in Richtung Sweetspot wichtig sind.

Locuza
2018-10-17, 19:20:14
Laut den alten Folien hat Intel selber bei 10+ keine bessere Transistor-Performance im Vergleich zu 14nm++ erwartet, aber die Pläne und Specs haben sich geändert, mal sehen wie es am Ende ausfallen wird.
https://images.anandtech.com/doci/11722/kaizad-mistry-2017-manufacturing%281%29_29.png

Ice Lake besitzt 512KB L2$ pro Kern im Vergleich zu 256KB bei den aktuellen Modellen und mehrere AVX512-Instruktionen werden definitiv unterstützen, Cannon Lake tut es schon, ob es Unterscheide zwischen Client und Server bei den Instruktionen und dann auch bei der Implementierung geben wird, dass habe ich nicht nachgeschaut.
Dem alten Schema nach wäre aber Ice Lake ein Tock und Intel hat zu Beginn mit vermutlich geringen Taktraten geplant, ich denke schon das Ice Lake bei der IPC mehrere Prozent gewinnen wird im Vergleich zum Skylake-Core.
Definitiv wird die iGPU massiv drauflegen.

Schnäppchenjäger
2018-10-17, 19:42:17
Definitiv wird die iGPU massiv drauflegen.Nur doof, dass in einem Gamingrechner iGPU wayne ist :wink:

Locuza
2018-10-17, 22:25:46
Hauptsächlich ja.
Viele haben sich immer darüber beschwert das sie nicht die die-fläche für eine nutzlose iGPU bezahlen möchten, ab Haswell waren es laut AMD schon 31% die dafür draufgingen, bei Quad-Core Skylakes noch mehr und solch Kundenwunsch wurde mit den Zen-Produkten sicherlich sehr zufriedenstellend bedient, wo es schöne 8-Kerne gibt.

Allerdings ist eine iGPU eine nette Backup-Option und könnte die Leistungsaufnahme im Ruhemodus oder bei schwacher Arbeitslast senken.
Ich wäre nicht dagegen, wenn eine Zen-CPU auch eine mini GCN-GPU mitschleppen würde und eine Bildausgabe und Videobeschleunigung ermöglicht.
Bei Ice Lake gab es Einträge darüber, dass 8-Kern CPUs nur noch über eine GT1-Lösung verfügen, also relativ könnte Intel den Flächenverbrauch für Vielkerner senken.

Screemer
2018-10-17, 22:33:04
Imho würd ich jedem Zen ne mini-gpu verpassen. Rein für Desktop und evtl. Im consumermarkt nen uvd mit rein packen. Wegen mir ist der framebuffer auch im RAM. Speed wäre mir da vollkommen egal.

iuno
2018-10-17, 23:49:18
Eine Notfall-GPU waere schon was. Aber das ist dann halt nicht nur eine CU, die ja nicht besonders gross ist, sondern gleich der ganze Rattenschwanz mit Display Controller, De- und Encoder usw.

Opprobrium
2018-10-18, 00:00:01
Eine Notfall-GPU waere schon was. Aber das ist dann halt nicht nur eine CU, die ja nicht besonders gross ist, sondern gleich der ganze Rattenschwanz mit Display Controller, De- und Encoder usw.
Klar, ist aber dem Konsumenten einfacher zu verklickern als der ganze Rattenschwanz mit extra Grafikkarte ;)

mczak
2018-10-18, 00:15:17
Naja, ist halt wohl eine Folge dass AMD dasselbe Die für Server nutzt. Da ist das ganze dann gleich 4x verbaut - die Fläche ist nicht unerheblich.
Man hat eh schon Zeugs das man nie braucht - auf dem Desktop überflüssige HSIO, beim Server duplizierte Chipsatzfunktionalität.
Was aber nicht unbedingt heisst dass es bei Zen2 so bleiben muss dass es insgesamt bloss 2 Dies gibt - ich erwarte sicher nicht sowas wie bei intel (Dies für 2/4/6/8 Kerne mit GT2, dazu noch ein paar mit GT3 auch wenn die nicht ganz aktuell sind, plus 3 Server Dies). Theoretisch sind auch 3 Dies vorstellbar (1 Server ohne GPU, 2 mit GPU), aber allzu wahrscheinlich ist es wohl nicht.

Opprobrium
2018-10-18, 00:26:59
Jo, würde vor allem problematisch wenn Epyc 2 tatsächlich aus 8 Chips bestehen sollte. Trotzdem ist (abgesehen vom Retail Markt) die fehlende Grafikeinheit ein klarer Nachteil von Ryzen im Vergleich zu den Core iX Prozessoren

][immy
2018-10-18, 00:54:09
Nur doof, dass in einem Gamingrechner iGPU wayne ist :wink:
nicht unbedingt.
Zum einen die schon angesprochene Notfall-GPU, dann würde es auch in Servern nicht schaden. Denn letztlich könnte man die GPU so noch für andere Dinge verwenden, denn diese ist ja selbst inzwischen ein kleines Rechenwerk.
Das Problem ist nur, wenn AMD die GPUs (so klein sie auch sein mögen) nicht auf alle CPUs packt, wird sich das auch nicht durchsetzen, das die GPU für irgendwelche Berechnungen noch zusätzlich genutzt werden kann (muss ja nicht immer was mit Grafik zu tun haben).
AMD hat ja die alten GPUs nicht umsonst mit den Compute Units + CPU-Kernen zusammengezählt um die Rechenkraft der Kernchen zu bewerben (Die A8 & A10 Prozessoren). Hat sich zwar nicht durchgesetzt, aber letztlich wird es das auch nicht, wenn man die GPU jetzt wieder anfängt wegzulassen (wie schon bei den FX Prozessoren).

Ich weiß, die GPU würde die kosten erhöhen etc (sieht man ja daran das ein ryzen 2400g in etwa so viel kostet wie ein ryzen 2600er), aber könnte auf dauer helfen, den gesamten Markt mit GPUs auszustatten und dann als zusätzliche Recheneinheiten für Spezialaufgaben zu verwenden.
btw, Intel liefert ja auch überall inzwischen seine GPU direkt mit.

Müssen ja keine großen GPUs sein, reicht ja was kleines um das zu erreichen.

Schnäppchenjäger
2018-10-18, 04:03:41
[immy;11828491']nicht unbedingt.
Zum einen die schon angesprochene Notfall-GPU, dann würde es auch in Servern nicht schaden. Denn letztlich könnte man die GPU so noch für andere Dinge verwenden, denn diese ist ja selbst inzwischen ein kleines Rechenwerk.
Das Problem ist nur, wenn AMD die GPUs (so klein sie auch sein mögen) nicht auf alle CPUs packt, wird sich das auch nicht durchsetzen, das die GPU für irgendwelche Berechnungen noch zusätzlich genutzt werden kann (muss ja nicht immer was mit Grafik zu tun haben).
AMD hat ja die alten GPUs nicht umsonst mit den Compute Units + CPU-Kernen zusammengezählt um die Rechenkraft der Kernchen zu bewerben (Die A8 & A10 Prozessoren). Hat sich zwar nicht durchgesetzt, aber letztlich wird es das auch nicht, wenn man die GPU jetzt wieder anfängt wegzulassen (wie schon bei den FX Prozessoren).

Ich weiß, die GPU würde die kosten erhöhen etc (sieht man ja daran das ein ryzen 2400g in etwa so viel kostet wie ein ryzen 2600er), aber könnte auf dauer helfen, den gesamten Markt mit GPUs auszustatten und dann als zusätzliche Recheneinheiten für Spezialaufgaben zu verwenden.
btw, Intel liefert ja auch überall inzwischen seine GPU direkt mit.

Müssen ja keine großen GPUs sein, reicht ja was kleines um das zu erreichen.Sorry aber nö, Notfall brauch ich nicht, GPUs gehen bei mir iwie nie kaputt und wenn, wird sie ausgetauscht. Die iGPU wird bei mir und vielen anderen NIE genutzt also wäre sie auch komplett unnütz, wenn sie drin wäre.

Als Hilfe zur CPU kann sie eh nicht eingesetzt werden.. entweder benutzt man sie anstelle einer dedizierten GPU oder gar nicht.

basix
2018-10-18, 07:09:50
Nur schon als FreeSync durchschlauf GPU wäre sie Gold wert ;)

Complicated
2018-10-18, 07:23:09
Ein Mining Applet, welches die iGPU im Hintergrund nutzt ohne CPU Last zu erzeugen, wenn sie nicht anderweitig genutzt wird. Nach 2 Jahren ist der Kaufpreis zurück im Wallet. ;)

Tyrann
2018-10-18, 07:24:39
Ein Mining Applet, welches die iGPU im Hintergrund nutzt ohne CPU Last zu erzeugen, wenn sie nicht anderweitig genutzt wird. Nach 2 Jahren ist der Kaufpreis zurück im Wallet. ;)
Aber nur wenn man im Studentenwohnheim wohnt und den Strom nicht selbst zahlen muss.

LadyWhirlwind
2018-10-18, 07:31:59
Die wären eh viel zu schwwch für alles andere als ein paar Spielereien.
Es ist ja auch immer möglich eine GPU aufs Mainboard zu machen, das kostet auch nicht mehr.

Und wer ne richtige GPU braucht, kann entweder eine kaufen oder eine CPU mit iGPU verwenden.

Wenn es eine GPU braucht, ist es kein Problem eine zu ergänzen, daher gubt es auch keinen Grund grunssätzlich eine mitzuliefern.

Sonyfreak
2018-10-18, 08:50:31
Ich denke, dass eine iGPU auch wichtig für den Business-PC-Markt wäre. Bei uns im Unternehmen beispielsweise werden lauter kleine HP und Dell Rechner gekauft und 98% von denen laufen ohne separate Grafikkarte. Die kleinen Sechskerner von AMD wären für solche Geräte prädestiniert.

mfg.

Sonyfreak

Brillus
2018-10-18, 08:59:37
Jo, würde vor allem problematisch wenn Epyc 2 tatsächlich aus 8 Chips bestehen sollte. Trotzdem ist (abgesehen vom Retail Markt) die fehlende Grafikeinheit ein klarer Nachteil von Ryzen im Vergleich zu den Core iX Prozessoren

Ich sehe es genau anders rum wenn das Gerücht stimmt mit 8 Chips und einem Controller Chip, gerade dann kann Mann das machen iGPU einfach in den Controller rein.

basix
2018-10-18, 09:05:50
Ich sehe es genau anders rum wenn das Gerücht stimmt mit 8 Chips und einem Controller Chip, gerade dann kann Mann das machen iGPU einfach in den Controller rein.

Interessante Idee. Da Vega eh 14nm ist würde das gut passen (laut Gerüchten ist der Controllerchip in 12/14nm). Was ich aber evtl. ein Nachteil sein kann sind die Kosten. Sind dann halt 2 Chips und die GPU profitiert nicht vom 7nm Scaling sowie der 7nm Effizienzsteigerung. Aber möglich wäre es allemal.

HOT
2018-10-18, 09:11:10
Ihr mit euren IGP, so ein Schwachfug. Man sollte sich das Ganze aus AMDs Sicht ansehen: Man steckte alles in "Fusion", brachte 5 Designs und alle Floppten. Jetzt kommt ihr daher und behauptet, es ginge nicht ohne interne Grafik. Leute, das ist der Grund, warum es RR gibt. Aber im normalen Markt hat sich das eben absolut nicht erwiesen. APUs sind ein Teilbereich, vor allem mobil, das wars.
Zudem wird Renoir sicherlich 8 Kerne mit einem IGP verbinden, da habt ihr eure high-end APU.

Rancor
2018-10-18, 09:29:25
13% mehr IPC in Verbindung mit 10% mehr Takt, wären schon toll. Vor allem passt das noch auf mein B350 Board :D

w0mbat
2018-10-18, 09:38:48
Naja, 10% mehr Takt, ausgehend von ca. 4GHz all-core boost beim 2700X, wären gerade mal 4,4GHz. Als Standard OK, aber bitte nicht als OC, da muss es schon richtung 5GHz gehen. Ist ja auch ein 7nm Chip.

Aber 10%+ mehr IPC wären schon der Hammer, nur ist hier die Frage "wo"? In Anwendungen liegt die IPC von Zen+ schon fast auf dem Niveau von Intel, in Spielen ist sie, vor allem durch die Latenzen, immer noch 10% dahinter.

Wenn Zen2 jetzt über 10% IPC zulegt könnte das Gleichstand bei Spielen bedeuten, oder aber Vorsprung in Anwendungen. Oder beides.

Ende 2019 wird sehr spannend, da werden wir wohl Zen2 als auch Intels neue 10nm CPU sehen. Endlich mal wieder etwas Bewegung :)

][immy
2018-10-18, 09:41:01
Ihr mit euren IGP, so ein Schwachfug. Man sollte sich das Ganze aus AMDs Sicht ansehen: Man steckte alles in "Fusion", brachte 5 Designs und alle Floppten.
was eher daran lag, das man im CPU-Sektor nichts konkurrenzfähiges hatte. Die IGPs waren durchaus brauchbar, z.B. reicht die FM2+ APU die meine Frau drin hat locker um Sims 4 zu spielen. Für sie reicht das vollkommen.
Die neuen Ryzen APUs sind da durchaus interessant, vor allem haben diese dank DDR4 um einiges mehr Bandbreite zur Verfügung, also das geht noch was. Besonders für den Mobilen Bereich, wo Ryzen grad tatsächlich Aufmerksamkeit bekommt, wäre das interessant.

HOT
2018-10-18, 09:43:31
Wenns interessant wäre, hätte sie einen IGP. Nichts ist einfacher für AMD, man produziert die Grafik sogar im gleichen Prozess. Aber man hat sich offensichtlich mit voller Absicht dagegen entschieden. Also stimmt das einfach nicht.

HTB|Bladerunner
2018-10-18, 09:55:25
Gibt es eigentlich Tests die aufzeigen wie gut aktuelle AMD- und Intel-Prozessoren mit dem Takt skalieren? Ich frage mich ob es überhaupt Sinn macht Zen2 bis ins Takt-Nirvana zu treiben außer für die Wärmeproduktion.

nairune
2018-10-18, 10:00:08
Ich denke, dass eine iGPU auch wichtig für den Business-PC-Markt wäre. Bei uns im Unternehmen beispielsweise werden lauter kleine HP und Dell Rechner gekauft und 98% von denen laufen ohne separate Grafikkarte. Die kleinen Sechskerner von AMD wären für solche Geräte prädestiniert.


Für die Leute reicht doch RR, locker. In meinem Umfeld rennen alle mit Notebooks rum oder bekommen Minimalkisten hingestellt, da sowieso nicht auf den lokalen Maschinen gearbeitet wird. Was soll so jemand mit Hochleistungs-CPUs?

YfOrU
2018-10-18, 10:06:47
Ihr mit euren IGP, so ein Schwachfug. Man sollte sich das Ganze aus AMDs Sicht ansehen: Man steckte alles in "Fusion", brachte 5 Designs und alle Floppten. Jetzt kommt ihr daher und behauptet, es ginge nicht ohne interne Grafik. Leute, das ist der Grund, warum es RR gibt. Aber im normalen Markt hat sich das eben absolut nicht erwiesen. APUs sind ein Teilbereich, vor allem mobil, das wars.

Es ist nach Volumen mit Abstand der größte Markt. Gut 3/5 der abgesetzten PCs sind heute Notebooks. Tendenz weiter steigend. Beim Desktop (inkl. SFF, AiO etc) würde ich auf 2/3 Office ohne dGPU tippen.

Das AMD mit den APUs bisher nicht sonderlich erfolgreich war ist wenig verwunderlich. Intel sitzt bei den OEMs fest im Sattel und AMD hatte nie über länger Zeit wirklich konkurrenzfähige und in hohen Stückzahlen lieferbare Produkte. Praktisch waren das bezogen auf die Performance fast immer Entry Lösungen während Intel bis in das Performance Segment skaliert. Damit kann ein OEM mit einem Gerätedesign schlichtweg mehr abdecken. Das ist auch für Kunden relevant. Je nach Bedarf ein Standard System vom OEM mit 2C/4T bis 8C/16T und 8 bis 32GB RAM. Identisches Management, Treiber, Ports etc. Die dGPU braucht es heute nur noch wenn auf der Anforderung fett 3D oder OpenCL/CUDA steht.

PS: Nicht sonderlich erfolgreich da AMD im embedded Bereich die APUs durchaus gut untergebracht hat. Der Markt funktioniert aber anders und hat andere Schwerpunkte.

Thoro
2018-10-18, 10:31:10
Ich denke, dass eine iGPU auch wichtig für den Business-PC-Markt wäre. Bei uns im Unternehmen beispielsweise werden lauter kleine HP und Dell Rechner gekauft und 98% von denen laufen ohne separate Grafikkarte. Die kleinen Sechskerner von AMD wären für solche Geräte prädestiniert.

mfg.

Sonyfreak

Da sind doch eh RR oder die neuen Athlons perfekt für dieses Umfeld. Bei uns im Büro läuft auch alles über IGP, aber kein Mensch braucht da mehr als 4 Kerne.

YfOrU
2018-10-18, 10:44:08
Gibt schon Anwendungsfälle bei denen es durchaus was bringt. Ist aber argumentativ nicht so wichtig denn bei Intel sind die halt im normalen Portfolio (i5 - i7) vorhanden und gleichzeitig ist die maximale Frequenz und IPC ein Stück höher. Da die CPU nur einen Teil vom Systempreis ausmacht wird das im Regelfall einfach mitgenommen. Der Aufpreis ist minimal.

Bezüglich Business Lösungen sehe ich bei AMD aber noch ein ganz anderes Problem. Die Pro CPUs/APUs für OEMs kommen mit 6 Monaten Verzögerung auf den Markt.

HOT
2018-10-18, 11:32:26
Wieder jemand der AMD Ratschläge geben möchte, was die doch gern für Produkte machen mögen... überflüssig. Wenn die keinen IGP verbauen hat das seinen Grund.

YfOrU
2018-10-18, 11:54:35
Der Grund ist das AMD mit einem Chip sowohl Consumer Desktop als auch Enterprise bedient. Ein größerer Spagat geht praktisch nicht und das hat zwangsläufig Kompromisse zur Folge.

Zusammen mit Raven Ridge sind es zwei Designs über welche versucht wird so viel vom Markt wie möglich zu adressieren. Grundsätzlich hat man damit mit dem geringst möglichen Aufwand ein top to bottom Portfolio. Das der Ansatz in der Praxis Schwachstellen hat sollte einleuchten. Für den Anfang passt das auch. Mittelfristig wird aber kein Weg daran vorbeiführen sich dem Portfolio des Marktführers weiter anzunähern (und damit mehr Designs zu bringen).

Opprobrium
2018-10-18, 13:00:02
Wieder jemand der AMD Ratschläge geben möchte, was die doch gern für Produkte machen mögen... überflüssig. Wenn die keinen IGP verbauen hat das seinen Grund.

Naja, Ideen und Wünsche in einem Spekulationsforum sind doch normal und auch nicht gleichzusetzen mit Ratschlägen.

Und die nicht so erfolgreichen APUs hatten einzig durch die Grafikeinheit uberhaupt eine Daseinsberechtigung. Das jetzt aufzugeben wo man auch beim CPU Teil konkurrenzfähig ist wäre Idiotie (und wird ja auch dank RR nicht getan)

Sonyfreak
2018-10-18, 13:27:38
Da sind doch eh RR oder die neuen Athlons perfekt für dieses Umfeld. Bei uns im Büro läuft auch alles über IGP, aber kein Mensch braucht da mehr als 4 Kerne.Es gibt genügend Bürorechner im Bereich zwischen 400 und 700 Euro (https://geizhals.at/?cat=sysdiv&xf=3320_2017~451_Dell~451_HP%2FHPe+Hewlett+Packard~6766_21~6766_22), die mit einem Core i5 oder sogar Core i7 ausgestattet sind. Intel bietet hier aktuell 6 oder sogar 12 Threads. Warum sollte AMD diesen riesigen Markt links liegen lassen wollen?

Ich sage ja nicht, dass AMD die nächste CPU-Generation komplett mit iGPUs ausrüsten wird, aber Anwendungsfälle gibt es reichlich.

mfg.

Sonyfreak

HOT
2018-10-18, 13:30:09
Dafür reicht RR dicke.

][immy
2018-10-18, 13:32:02
Es gibt genügend Bürorechner im Bereich zwischen 400 und 700 Euro (https://geizhals.at/?cat=sysdiv&xf=3320_2017~451_Dell~451_HP%2FHPe+Hewlett+Packard~6766_21~6766_22), die mit einem Core i5 oder sogar Core i7 ausgestattet sind. Intel bietet hier aktuell 6 oder sogar 12 Threads. Warum sollte AMD diesen riesigen Markt links liegen lassen wollen?

Ich sage ja nicht, dass AMD die nächste CPU-Generation komplett mit iGPUs ausrüsten wird, aber Anwendungsfälle gibt es reichlich.

mfg.

Sonyfreak
zumal es bei diesen Systemen ja meist nur darum geht überhaupt ein Bild ausgeben zu können. Eine extra GPU würde die Sache nur verteuern und da der Speichercontroller in der CPU ist, wäre ein Mainboard-Chip auch nicht mehr so einfach ohne extra Speicher (erhöht den Preis) verbauen zu müssen.
Ja, für solche Rechner hat AMD den Athlon, den 2200g und 2400g im petto, aber da fehlt noch Platz nach oben hin. Es gibt eigentlich für Intel keinen Grund eine GPU auf die CPUs zu packen, außer halt diese Felder abzudecken, wo eine minimal-Lösung schon ausreichend ist und eine dGPU nur für einen höheren Preis sorgen würde aber keinerlei nutzen hat.

ndrs
2018-10-18, 14:12:16
Dafür reicht RR dicke.
Unsere Programmierer würden kotzen, wenn man denen ne Kiste mit nur 8 Threads anbieten würde. dGPU brauchen die nicht und bei den Preisen für HEDT macht der Chef nicht mit. Es gibt genügend solche Anwendungsfälle.

bnoob
2018-10-18, 14:21:37
Was habt ihr dann vor Ryzen gekauft?

(weint in i7-7500U)

ndrs
2018-10-18, 15:54:55
Jeweils die schnellsten Desktop-i7. Ich redete oben natürlich von heute, nicht von vor zwei Jahren. Da die Beschaffungsverantwortlichen noch ein Problem mit AMD haben ("In den 90ern gab es mal Inkompatibilitäten. Kommt mir nicht mehr in die Tüte") sind es bisher auch nur 8700k geworden. Durch mein stetiges Gequatsche wird es aber wohl bei den nächsten Anschaffungen die ersten Gehversuche mit Ryzen geben :D

Kriton
2018-10-18, 16:51:17
Bei uns geht das stumpf über Benchmarks. Es sind die Hersteller, die uns nur Intel anbieten. Auch dort spielt das Thema dGPU aber sicher eine Rolle, da die Marge für die HW eher gering ist.

N0Thing
2018-10-19, 01:17:44
Das Problem für AMD besteht doch teilweise darin, dass deren APUs in einer Office-Kiste von der Leistung der GPU her fast immer überdimensioniert sind und die CPU im Zweifelsfall nicht mehr oder weniger Leistung liefert als das Produkt von Intel.
Die Leistungsfähigen CPUs kommen seit Ryzen nun wieder ohne iGPU auf den Markt, es fallen also noch einmal Kosten für eine GPU an und die muss auch Platz im Gehäuse finden.
Für den Server- und (Gamer-)Desktop-Markt sehe ich AMD ziemlich gut aufgestellt, mit der aktuellen Strategie, bei Notebooks und Thin Clients fehlt es aber momentan und vermutlich auch in Zukunft an gleichwertigen und überzeugenden Produkten für die Masse der OEMs und Endkunden.

Gorkon
2018-10-19, 07:31:06
AMD kannst du höchstens ankreiden das die den OEMs nicht mal ordentlich auf die Finger hauen, wenn die wieder irgendeinen Mist zusammenklöppeln sobald ein "AMD"-Sticker aufs Gehäuse muss.

Ansonsten...hä? Wo ist RR gerade für Notebooks / Thin Clients unattraktiv? Je nach Workload minimal schlechtere bis gleiche gleiche CPU-Leistung + massiv bessere iGPU. Da müsste ich nichtmal 2 Sekunden nachdenken was ich mitnehme...

tm0975
2018-10-19, 08:20:32
Das Problem für AMD besteht doch teilweise darin, dass deren APUs in einer Office-Kiste von der Leistung der GPU her fast immer überdimensioniert sind und die CPU im Zweifelsfall nicht mehr oder weniger Leistung liefert als das Produkt von Intel.
seit wann ist den für einen relevanten anteil der käufer der gebrauchswert interessant? es fragt soch auch niemand, ob er einen i7/9 benötigt. in tests wird fleißig in 720p gebencht und der gemeine käufer denkt sich: toll, der ist ja schneller, den brauche ich also.

w0mbat
2018-10-19, 09:17:54
CPU benchmarks gehören aber auch so, also in 720p oder langsam vielleicht auch in 1080p. Man will ja die CPU testen und nicht die GPU, dafür gibt es ja schon extra Tests.

Ich habe ja nichts dagegen wenn es zusätzlich benchmarks in 1440p oder 4K gibt, aber ich persönlich will schon sehen, wie schnell eine CPU im CPU-Limit ist.

huey
2018-10-19, 10:14:27
CPU benchmarks gehören aber auch so, also in 720p oder langsam vielleicht auch in 1080p. ...

Im Grunde ja immer wieder die gleiche Diskussion und ich sehe es etwas anders bzw. sehe zumindest in der aktuellen Art der Darstellung und auch der in der Regel aus diesen Tests gezogenen Schlüsse deutlichen Anpassungsbedarf.
Die Begründung für diese Tests ist ja meistens der vermeintliche Blick in die Zukunft und genau das passt ja in den meisten vergangenen Tests nicht und es würde auch nur passen wenn man CPU's mit gleicher Kernzahl vergleichen würde. Ein damaliger hochgetakteter P4 hatte in diesen Tests einen besseren Zukunftsausblick als ein AMD X2 4200 oder eine Core2 als ein Q6600 usw. und es hat sich jeweils gezeigt das es dann genau anders herum kam und noch dazu merkt man in 99% der Spiele zum Zeitpunkt der Tests in den real genutzten Auflösungen keinen Unterschied da GPU Limit. Der Test i7 7700 gegen AMD Ryzen 1700 wird mit hoher Wahrscheinlichkeit wieder genauso enden und es fängt ja schon an sich zu drehen. Im Grunde ja auch logisch da die eigentlich vorhandene maximale Leistung eines Ryzen 1700 deutlich über der eines i7 7700 liegt und nur durch die aktuell verwendete Software begrenzt wird. Es wird also ein vermeintlicher Zukunftsausblick ohne Softwareentwicklung gegeben. Es stört mich an den meistens Test vor allem die Formulierung „CPU Limit“ denn es ist ja kein CPU sondern in aller Regel ein Softwarelimit.

Nachtrag:
Wenn die Differenzen in der IPC und Takt zu groß werden spielt das mehr an Kernen natürlich irgendwann auch keine Rolle mehr, aber bis auf wenige Ausnahmen (AMD Katzenkerne, Bulldozer, Atomkerne) trifft das dann doch selten zu.

SKYNET
2018-10-19, 10:22:22
CPU benchmarks gehören aber auch so, also in 720p oder langsam vielleicht auch in 1080p. Man will ja die CPU testen und nicht die GPU, dafür gibt es ja schon extra Tests.

Ich habe ja nichts dagegen wenn es zusätzlich benchmarks in 1440p oder 4K gibt, aber ich persönlich will schon sehen, wie schnell eine CPU im CPU-Limit ist.


also 1080p limitieren schon einige games(FFXV, SotTR zb.) von daher bringt das noch immer nix mit mehr als 720p bei CPU tests...

basix
2018-10-19, 10:54:28
720p Tests sind schon OK. Nur gibt es oftmals Fälle, wo z.B. in 4k die langsamere CPU dann schneller ist. Woran das liegt weiss ich nicht, habe das aber schon in vielen Reviews gesehen. Deswegen nehme ich die 720p Resultate immer mit einem Grain of Salt. Maximale Details sind aber auch bei 720p Pflicht, da damit alle Effekte aktiv sind.

Opprobrium
2018-10-19, 11:01:00
720p sind interessant, aber ein ausgewogenes Benchmarkfeld mit Tests von 720p bis 4K wäre wohl am aussagekräftigsten wenn man all die Errungenschaften der letzten Jahre (min. FPS, Frametimes etc. pp.) mit berücksichtigt. Das es da Unterschiede zwischen CPUs mit ansonsten ähnlicher Leistung gibt ist ja bekannt.

Sonyfreak
2018-10-19, 11:33:03
Ansonsten...hä? Wo ist RR gerade für Notebooks / Thin Clients unattraktiv? Je nach Workload minimal schlechtere bis gleiche gleiche CPU-Leistung + massiv bessere iGPU. Da müsste ich nichtmal 2 Sekunden nachdenken was ich mitnehme...In den meisten Tests zeigt sich leider, dass Notebooks, die mit RR ausgerüstet sind, deutlich geringere Akkulaufzeiten hervorbringen, als gleich ausgerüstete Intel Konkurrenten. Siehe zum Beispiel hier: KLICK (https://www.golem.de/news/thinkpad-e480-e485-im-test-amd-gegen-intel-in-lenovos-14-zoll-notebook-1808-136013.html)

mfg.

Sonyfreak

Savay
2018-10-19, 11:42:46
Die Frage ist nur ob es an den CPUs liegt...ich glaube ehrlich gesagt kaum!
Eher scheinen die Hersteller noch nicht genug Erfahrung mit derartigen Konfigurationen zu haben plus ein paar blöder Bugs die AMD zu verantworten hat...und schon kommen solche Resultate zustande.

Hier beißt sich auch ein wenig der Hund in den Schwanz...gibt es wenige Käufer, gibt es nur wenige Angebote und es wird auch nur wenig optimiert, was zu weniger Käufern führt.
Das ist ne Spirale die mal durchbrochen werden muss...und da sind auch die OEMs gefragt.

YfOrU
2018-10-19, 12:09:30
Die Leistungsaufnahme von Raven Ridge (SoC) im Leerlauf ist durch die Bank etwas höher (also auch auf AM4). Am Desktop irrelevant aber bei Notebooks macht sich das einfach negativ bemerkbar. Sieht man auch beim Vergleich der Datenblätter von HP (Energy Star Rating) zu den Elitebooks.

Anandtech (AM4): https://www.anandtech.com/show/12425/marrying-vega-and-zen-the-amd-ryzen-5-2400g-review/13

745 G5 (Seite 13): http://www8.hp.com/h20195/v2/GetPDF.aspx/c05934822.pdf
840 G5 (Seite 34): http://www8.hp.com/h20195/v2/GetPDF.aspx/c05868510.pdf

Nightspider
2018-10-19, 12:13:19
Schade das AMD nicht bei TSMC auch eine Art eDRAM fertigen lässt.
Würden fast alle mobilen Raven Ridge CPUs dadurch beschleunigt werden sähe Intel kein Land mehr und die Effizienz würde auch steigen.

Man müsste den eDRAM ja auch nicht so teuer bezahlen lassen und könnte die Kosten zum Herstellungspreis weitergeben. Hauptsache Marktanteile gewinnen.

HBM scheint ja in den nächsten Jahren noch keine Alternative zu sein.

Geächteter
2018-10-19, 12:31:28
Vielleicht muss man erstmal überhaupt froh sein, wenn TSMC es in Serie schafft, viele Transistoren, die 4 Ghz packen sollen, in 7 nm zu gießen. Bis jetzt kaspern sie dort nur erfolgreich im SOC rum, mit extrem vielen Transistoren GPUs) oder mit hochtaktenden Transistoren läuft noch überhaupt gar nix. Am Ende kann man vielleicht froh sein, wenn sie es bis Ende 2019 schaffen bei CPUs.

Savay
2018-10-19, 12:49:29
Die Leistungsaufnahme von Raven Ridge (SoC) im Leerlauf ist durch die Bank etwas höher (also auch auf AM4).


Geschenkt...das sind ein paar Prozent Unterschied in der Idlezeit, die so oder so mehr als hoch genug liegt (verglichen mit dem was vor einigen Jahren noch "Standard" war)
Das Problem ist aber ein anderes:
Die mit Abstand größten Diskrepanzen sind bei Golem bei der Videowiedergabe aufgetaucht, was mitnichten "Leerlauf" ist! :wink:

Complicated
2018-10-19, 13:21:04
CPU benchmarks gehören aber auch so, also in 720p oder langsam vielleicht auch in 1080p. Man will ja die CPU testen und nicht die GPU, dafür gibt es ja schon extra Tests.

Dann sollte man einfach mal mit etwas testen das eben keine Renderpfade rechnet. 720p ist völlig sinnlos wenn man sich mal die letzten RTX Tests anschaut.

Linmoum
2018-10-19, 13:27:31
Sinnlos ist 720p nur für diejenigen, die den Sinn hinter CPU-Benchmarks nicht verstehen. Sollte aber nach Jahren auch dem letzten bekannt sein und nicht schon wieder zu einer Diskussion führen, die aufgrund der Faktenlage eigentlich nicht zu führen ist.

Pirx
2018-10-19, 13:35:10
Sinnlos ist 720p nur für diejenigen, die den Sinn hinter CPU-Benchmarks nicht verstehen. Sollte aber nach Jahren auch dem letzten bekannt sein und nicht schon wieder zu einer Diskussion führen, die aufgrund der Faktenlage eigentlich nicht zu führen ist.
Da wäre ich mir nicht so sicher, ob man damit wirklich die CPU-Leistung misst, oder tw. nicht andere Dinge limitieren und somit das Ergebnis völlig verfäschen. Reine CPU-Leistung misst man imo am Besten mit "synthetischen " Benchmarks.

N0Thing
2018-10-19, 13:39:32
AMD kannst du höchstens ankreiden das die den OEMs nicht mal ordentlich auf die Finger hauen, wenn die wieder irgendeinen Mist zusammenklöppeln sobald ein "AMD"-Sticker aufs Gehäuse muss.

Ansonsten...hä? Wo ist RR gerade für Notebooks / Thin Clients unattraktiv? Je nach Workload minimal schlechtere bis gleiche gleiche CPU-Leistung + massiv bessere iGPU. Da müsste ich nichtmal 2 Sekunden nachdenken was ich mitnehme...

Ja, ich würde mir auch mehr Einsatz und Mut bei den OEMs wünschen, man hat ja oft nicht einmal eine AMD-Alternative zur Auswahl.

Aber in welchen Szenarien ist die stärkere iGPU der APUs denn ein Vorteil in der Praxis, wenn sie in Notebooks und Thin Clients zum Einsatz kommt? Doch eigentlich nur bei einem durchschnittlichen Allrounder, bei dem definitiv Gaming ein Merkmal sein muss. Business und Office braucht keine starke iGPU, Gaming-Notebooks eine stärkere GPU, Arbeitstiere mehr Leistung bei der CPU.
Solange AMD bei der CPU-Leistung pro Kern und Leistungsaufnahme nicht noch weiter zu Intel aufschließt, wird es weiterhin schwierig sein, die APUs an den Kunden zu bringen.


seit wann ist den für einen relevanten anteil der käufer der gebrauchswert interessant? es fragt soch auch niemand, ob er einen i7/9 benötigt. in tests wird fleißig in 720p gebencht und der gemeine käufer denkt sich: toll, der ist ja schneller, den brauche ich also.

Der gemeine Käufer liest sich keine 720p Benchmarks durch, der geht mit seinem Budget zum Media Markt oder Amazon und kauft sich was mit großem Akku/Arbeitsspeicher/Festplatte (laut Prospekt/Verkäufer/Rezension) und ansprechender Optik (subjektiv).

Von daher kann man sich nur wünschen, dass Zen2 gut wird und auch TSMC einen guten 7nm Prozess liefern kann, sodass AMD eine bessere Chance hat, in Zukunft Produkte gegen Intel platzieren zu können, die dann sowohl bei den OEMs, als auch auch bei den versierten Endkunden auf Anklang treffen.

][immy
2018-10-19, 13:41:10
Da wäre ich mir nicht so sicher, ob man damit wirklich die CPU-Leistung misst, oder tw. nicht andere Dinge limitieren und somit das Ergebnis völlig verfäschen. Reine CPU-Leistung misst man imo am Besten mit "synthetischen " Benchmarks.
Damit misst du dann aber nicht wie es z.B. in spielen tatsächlich aussieht mit der CPU Geschwindigkeit. Synthetische Benchmarks spiegeln halt nur sehr selten die Realen Bedingungen wieder. Spiele benchmarks sind was spiele angeht da schon aussagekräftiger. Und da willst du halt nicht, das dich die GPU ausbremst, wobei natürlich dann auch interessant ist, ob es noch unterschiede im GPU bzw. beinahe GPU limit gibt, aber letztlich misst du damit nicht wozu die CPU im stande ist.
CPU Benches könnten sogar noch besser in 480p ausgeführt werden. Klar könnten ab irgendwo andere Komponenten limitieren (z.B. einfach der Hauptspeicher), aber die Wahrscheinlichkeit ist einfach geringer von der GPU gebremst zu werden.
Wenn du Benches in höheren Auflösungen durchführst z.b. schon 1080p kann hier die GPU limitieren, besonders wenn es dann keine 2080 TI ist. Ist schon erstaunlich wie stark selbst die 1080 TI bei der Auflösung schon limitieren kann.
Klar kauft man sich der Otto-Normalverbraucher am ende bei Media Markt einen PC, dem isses dann aber auch egal, ob er die schnellste CPU hat, solange er alles Spielen kann. Wenn es danach geht müsstest du einfach nur testen "kann man mit der CPU heutige Spiele spielen? (Ja/Nein)". Sagt aber überhaupt nichts darüber aus, wie Leistungsfähig die CPU heutzutage ist.

Effe
2018-10-19, 13:47:17
[immy;11829780']Damit misst du dann aber nicht wie es z.B. in spielen tatsächlich aussieht mit der CPU Geschwindigkeit. Synthetische Benchmarks spiegeln halt nur sehr selten die Realen Bedingungen wieder. Spiele benchmarks sind was spiele angeht da schon aussagekräftiger.
Da misst Du aber nicht die CPU Geschwindigkeit, sondern die Software. Es ist eher ein Test wie gut die Software auf die Architektur passt.
Siehe Unterschiede bei DX11 gegenüber DX12 oder Vulkan.

Mangel76
2018-10-19, 14:19:01
Da misst Du aber nicht die CPU Geschwindigkeit, sondern die Software. Es ist eher ein Test wie gut die Software auf die Architektur passt.
Siehe Unterschiede bei DX11 gegenüber DX12 oder Vulkan.

Ja, und genauso misst du mit 720p-Tests nur, wie gut aktuelle oder alte Spiele auf die getestete Architektur angepasst sind. Wenn es eine neue Architektur ist, kann das ziemlich mies aussehen. Das sagt aber nichts darüber aus, wie zukünftige Software dann mit der neuen Architektur laufen. Daher sind solche Tests für Zukunftsaussagen auch kaum zu gebrauchen.

Complicated
2018-10-19, 15:25:59
Nur wenn du misst wie Spiele an eine Architektur angepasst sind, sagt das nichts über die CPU aus. Es sagt viel über die Treiber und die API.

Zumal man sich mal die Tests der RTX 2080 doch mal anschauen muss. In 720p langsamer als Vega und in UHD schneller als Vega. Was sagt das pber die CPU aus? Wäre 720p ein CPU Test könnte es keine großen Unterschiede zwischen Vega und RTX geben. Und doch war da plötzlich der TR in ersten Tests deutlich langsamer als Nvidias GPUs...und keiner hat es gemerkt vor der Veröffentlichung.

LowRes Test sind tot...nur die Redaktionen wollen es nicht wahr haben, weil sie keine Alternativen haben für Klickzahlen.

robbitop
2018-10-19, 15:32:53
Wenn die GPU unendlich schnell ist und die CPU limitiert, sollten die Ergebnisse relativ gleich sein bei allen Auflösungen. Die Frage ist immer was man wissen/messen will. Will man reine Leistung einer Komponente X messen dann ohne Limitierung einer anderen Komponente. Will man ganz spezifisch wissen wie schnell eine Komponente X in Konstellation mit einer Komponente Y in Anwendung Z ist, dann kann man das auch tun.

Somit bieten Reviews beides an. Sowohl für GPUs als auch CPUs.

Complicated
2018-10-19, 15:41:10
Will mann eine Komponente nicht limitieren lassen benutzt man doch keine Software die zu 80% auf eben dieser berechnet wird.
Man nimmt Software die keine GPU benötigt.

Da wird über Hops bei IF philosophiert und dann nimmt man den Flaschenhals PCIe und 2 verschiedene Speichergruppen um eine CPU zu messen...wer das noch immer für irgendwie sinnvoll hält....

Brillus
2018-10-19, 20:00:03
Zumal man sich mal die Tests der RTX 2080 doch mal anschauen muss. In 720p langsamer als Vega und in UHD schneller als Vega. Was sagt das pber die CPU aus? Wäre 720p ein CPU Test könnte es keine großen Unterschiede zwischen Vega und RTX geben.

Ziemlich Falsch gerade das man da den unterschied sieht man das es gut als CPU Bench reicht. Da geht AMD wohl weniger verschwenderisch mit der CPU im Treiber um.

Schnäppchenjäger
2018-10-19, 22:17:10
Die wären eh viel zu schwwch für alles andere als ein paar Spielereien.
Es ist ja auch immer möglich eine GPU aufs Mainboard zu machen, das kostet auch nicht mehr.

Und wer ne richtige GPU braucht, kann entweder eine kaufen oder eine CPU mit iGPU verwenden.

Wenn es eine GPU braucht, ist es kein Problem eine zu ergänzen, daher gubt es auch keinen Grund grunssätzlich eine mitzuliefern.So ist es.
Ich denke, dass eine iGPU auch wichtig für den Business-PC-Markt wäre. Bei uns im Unternehmen beispielsweise werden lauter kleine HP und Dell Rechner gekauft und 98% von denen laufen ohne separate Grafikkarte. Die kleinen Sechskerner von AMD wären für solche Geräte prädestiniert.

mfg.

SonyfreakIch habe in meiem Beispiel nur von Privat-PCs geredet, nicht Business. Die iGPU ist zu 98% einfach unnütz :wink:

basix
2018-10-20, 08:16:24
Hier im Forum vielleicht. Für alle Office only PCs reicht die iGPU. Bei AMD reichts sogar für einige Spiele. Klar, die meisten haben dann nur ein Notebook. Es gibt aber sicher viele die sich doch noch einen Desktop bei Aldi für wenig Geld holen.

robbitop
2018-10-20, 09:20:36
Will mann eine Komponente nicht limitieren lassen benutzt man doch keine Software die zu 80% auf eben dieser berechnet wird.
Man nimmt Software die keine GPU benötigt.

Da wird über Hops bei IF philosophiert und dann nimmt man den Flaschenhals PCIe und 2 verschiedene Speichergruppen um eine CPU zu messen...wer das noch immer für irgendwie sinnvoll hält....
Naja aber Spiele sind ja nunmal 3D Anwendungen. Und der Spiele Code hat leider andere Flaschenhälse als reine Anwendungen (also nicht Spiele). Ist häufig unsortierter, nur suboptimal parallelisierbarer Code. Dazu kommt noch dass dieser häufig Latenzkritisch ist weil die Datenlokalität oftmals nicht besonders toll ist.

Insofern finde ich es nicht falsch, die CPU Leistung in Spielen außerhalb vom GPU Limit zu messen.

Gorkon
2018-10-20, 09:34:49
Ja, ich würde mir auch mehr Einsatz und Mut bei den OEMs wünschen, man hat ja oft nicht einmal eine AMD-Alternative zur Auswahl.

Aber in welchen Szenarien ist die stärkere iGPU der APUs denn ein Vorteil in der Praxis, wenn sie in Notebooks und Thin Clients zum Einsatz kommt? Doch eigentlich nur bei einem durchschnittlichen Allrounder, bei dem definitiv Gaming ein Merkmal sein muss. Business und Office braucht keine starke iGPU, Gaming-Notebooks eine stärkere GPU, Arbeitstiere mehr Leistung bei der CPU.
Solange AMD bei der CPU-Leistung pro Kern und Leistungsaufnahme nicht noch weiter zu Intel aufschließt, wird es weiterhin schwierig sein, die APUs an den Kunden zu bringen.Unterschätz bitte genau dieses Klientel nicht so sehr...davon gibt es viel viel mehr, als irgendwelche sogenannten "Analysten" oder Marktforscher meinen.

In unserem Kurs sitzen fast nur IT-Ahnungslose rum, aber immerhin lernwillig. Weil es sich bei einem mit nem Nobo-Neukauf ergeben hat, hab ich ihm und dem Rest halt mal objektiv erklärt was sich die letzten 18 Monate so getan hat (Die kannten alle nur Intel).

Grobes Ergebnis danach war: 50% definitv RR, weitere 25% RR wenn die Akkulaufzeiten besser wären, der Rest Intel, weil halt Intel oder "Ich spiel ja nicht so oft". Ist jetzt auch nicht representativ aber das ist halt auch quasi das Bild, was ich generell aus meinem Umfeld höre.

Und sry für Offtopic hier, gehört eigentlich in den APU-Thread :redface:

Grüße

Complicated
2018-10-20, 11:36:35
Da geht AMD wohl weniger verschwenderisch mit der CPU im Treiber um.

Und du findest nicht, dass dies genau der Grund ist, dass es eben KEIN CPU Test ist wenn der Treiber der GPU entscheidet wie viel Leistung ein System liefert....

tm0975
2018-10-20, 12:02:43
Naja aber Spiele sind ja nunmal 3D Anwendungen. Und der Spiele Code hat leider andere Flaschenhälse als reine Anwendungen (also nicht Spiele). Ist häufig unsortierter, nur suboptimal parallelisierbarer Code. Dazu kommt noch dass dieser häufig Latenzkritisch ist weil die Datenlokalität oftmals nicht besonders toll ist.

Insofern finde ich es nicht falsch, die CPU Leistung in Spielen außerhalb vom GPU Limit zu messen.

schön beschrieben, aber deine schlussfolgerung ist nicht logisch. das ist doch dann kein cpu test. das ist doch in bezug auf spiele lediglicih ein test des software, wie gut (oder schlecht) diese programmiert ist.

reaperrr
2018-10-20, 13:37:26
schön beschrieben, aber deine schlussfolgerung ist nicht logisch. das ist doch dann kein cpu test. das ist doch in bezug auf spiele lediglicih ein test des software, wie gut (oder schlecht) diese programmiert ist.
Also ehrlich gesagt finde ich eher deine Schlussfolgerung unlogisch...

Der Test sagt doch aus, wie gut die jeweilige CPU mit der von der Software gestellten Aufgabe klarkommt, und das ist doch sehr wohl ein CPU-Test, der erlaubt CPUs untereinander zu vergleichen.

Umgekehrt sind andere Anwendungen, bloß weil sie besser parallelisierbar und weniger Latenz-kritisch sind, deswegen noch lange keine besseren CPU-Tests.
Eher im Gegenteil, weil diese nicht selten nur einen kleineren, spezifischen Teil der CPU-Pipeline ansprechen. Maximal handelt es sich um bessere Tests für Skalierung mit Kern/Thread-Zahl, aber das war's dann schon.

Um ein Bild von der Performance der kompletten Kern-Pipeline zu bekommen, sind Spiele oft besser als andere Anwendungen, weil die "Mischung" besser ist.

Brillus
2018-10-20, 14:39:38
Und du findest nicht, dass dies genau der Grund ist, dass es eben KEIN CPU Test ist wenn der Treiber der GPU entscheidet wie viel Leistung ein System liefert....

Nein natürlich nicht, beim CPU Test wird ja nicht die GPU oder deren Treiber gewechselt. Das ist auch nur Last welche die CPU zu verarbeiten hat. Das du diese Frage stellst lässt mich dran Zweifeln, dass du überhaupt das zentrale Prinzip von Benchmarks verstanden hast.

Nochmal bei so einem Test möchte ich wissen wie viel Leistung eine CPU hat. Also wie viel Zeit(frametime) sie für X Arbeit benötigt. Bzw. wie oft es X Arbeit in einer bestimmten Zeit erledigen kann (FPS) Wie sich das X ist jetzt aus Spiel und Treiber zusammensetzt ist doch völlig Wurst.

Schnäppchenjäger
2018-10-20, 16:12:52
Hier im Forum vielleicht. Für alle Office only PCs reicht die iGPU. Bei AMD reichts sogar für einige Spiele. Klar, die meisten haben dann nur ein Notebook. Es gibt aber sicher viele die sich doch noch einen Desktop bei Aldi für wenig Geld holen.Bist du taub oder sowas? Ich rede von Gamingrechnern :biggrin:
Da brauch ich keine iGPU. Unnützes Stück Hardware das mehr Geld kostet und die Fläche verkleinert.
Genau so brauche ich auch keine mitgelieferten Schrottkühler.

Da spare ich doch lieber das Geld anstatt das für etaws Unnützes auszugeben, außerem schont das ein wenig die Umwelt.
Wenn man so geil auf die iGPU ist, soll Intel oder AMD halt Versionen in kleinerer Stückzahl damit rausbringen... ich sag's dir.. den Müll vermisst keiner.
iGPU gehört für mich in den Mobile und Einsteiger-Office-Bereich.

bun
2018-10-20, 16:32:11
CPU Spieletests mit niedrigen Auflösungen waren schon immer Realitätsfern und noch nie ein zuverlässiger Indikator für zukünftige Performance.

Wäre das zutreffend, dann hätten die Leute damals ihre AMD FX zügig weggeschmissen, weil die ersten Benchmarks gegen Sandy Bridge schon vernichtend ausgesehen haben.

https://i.imgur.com/TEy90Pk.png
https://i.imgur.com/4H2DXOM.png

Dann ist aber so langsam sowas passiert, und die FX haben sich teilweise sehr lange brauchbar gehalten.

https://i.imgur.com/OKYeNMv.png

https://i.imgur.com/I7zZVmg.png

Und heute passiert dann auch mal sowas. Man beachte die massive Differenz zwischen 7600K und 7700K sowie die Auslastung auf 100%.

Wenn sich die Architektur von Spielen überhaupt nicht an die Verfügbarkeit von mehr Threads anpassen würde, dann würde das eventuell auch anders aussehen.

Längere Erklärung: https://www.youtube.com/watch?v=ylvdSnEbL50

Damals, nach'm Krieg, als Intel und AMD noch krass unterschiedliche Ansätze verfolgt haben, war diese Diskussion auch noch Spannender. Heute liegen beide architektonisch und in Sachen Leistung so dicht beieinander das eure Diskussion sich nach Sommerloch anfühlt. 5-10% hin oder her, Wen interessiert's.

basix
2018-10-20, 18:16:37
Bist du taub oder sowas? Ich rede von Gamingrechnern :biggrin:
Das habe ich wohl überlesen ;)


iGPU gehört für mich in den Mobile und Einsteiger-Office-Bereich.
Exakt. Und genau deswegen ändert sich an meiner Grundaussage nichts. Zusammen mit den Business Rechnern werden hier die grössten Summen umgesetzt, einfach aufgrund der hohen Stückzahlen. Deswegen ist die iGPU eben so eminent wichtig ;) Stell dir eine 16C Compile-Maschine vor, welche keine zusätzliche GPU benötigt. Für viele OEMs im B2B Bereich wäre das sehr attraktiv.

Für Gaming Rechner ist alles ausserhalb dGPU uninteressant. Dennoch wäre mir ein iGPU ebenso willkommen. Vor allem, wenn es eine AMD iGPU ist und man sich dadurch im Zweifelsfalle auch mit einer Nvidia GPU FreeSync erzwingen kann :D Der ganze G-Sync Ökosystem Rotz geht mir auf den Zeiger (ich darf das sagen, ich bin drin ;)). Insbesondere wenn wirklich gute Monitore rar sind. Ich möchte die freie Wahl zwischen Nvidia und AMD haben. Und AMD wird für die nächste CPU wohl sowieso gesetzt sein. Bei den GPUs gewinnt das bessere Angebot.

Birdman
2018-10-20, 18:37:01
CPU Spieletests mit niedrigen Auflösungen waren schon immer Realitätsfern und noch nie ein zuverlässiger Indikator für zukünftige Performance.
Wäre das zutreffend, dann hätten die Leute damals ihre AMD FX zügig weggeschmissen, weil die ersten Benchmarks gegen Sandy Bridge schon vernichtend ausgesehen haben.
Genau das ist doch passiert?!?
Und dass genau diese Spieletests mit niedrigen Auflösungen ein exakter Indikator für heutige Performace waren, beweist doch der Umstand das Zen eine ~50% IPC Steigerung vs AMD FX hingelegt hat aber bei Spielen trotzdem noch immer "nur" auf Sandy Bridge Niveau liegt.

basix
2018-10-20, 19:11:32
Genau das ist doch passiert?!?
Und dass genau diese Spieletests mit niedrigen Auflösungen ein exakter Indikator für heutige Performace waren, beweist doch der Umstand das Zen eine ~50% IPC Steigerung vs AMD FX hingelegt hat aber bei Spielen trotzdem noch immer "nur" auf Sandy Bridge Niveau liegt.

:facepalm:

Lehdro
2018-10-20, 19:20:03
Um ein Bild von der Performance der kompletten Kern-Pipeline zu bekommen, sind Spiele oft besser als andere Anwendungen, weil die "Mischung" besser ist.
Intel zu Pentium 4 Zeiten, also genau zu der Zeit als sie ironischweise bei Spielen meist verprügelt wurden vom A64, hätte dir da vehement widersprochen. Denn nur Anwendungen sind der reale Performanceindikator! :freak:

Wie wärs denn wenn man einfach einen gesunden Mix aus allem nimmt um eine CPU zu bewerten? Macht doch eh schon jede Redaktion. Eine CPU nur zum Gamen und eine nur zum Arbeiten haben hier eh die wenigsten. Und auch nur pure singlethreaded Performance, latenzkritische Sachen oder nur threadhungrige Programme zu isolieren um die Performance zu bewerten ist schon arg eindimensional.

Genau das ist doch passiert?!?
Und dass genau diese Spieletests mit niedrigen Auflösungen ein exakter Indikator für heutige Performace waren, beweist doch der Umstand das Zen eine ~50% IPC Steigerung vs AMD FX hingelegt hat aber bei Spielen trotzdem noch immer "nur" auf Sandy Bridge Niveau liegt.
Oh weia, was hast du denn geraucht?
Der Bulldozer hat gegenüber dem 2500k, der ihn damals einfach mal in den Boden stampfte, massivst aufgeholt und liegt in den allermeisten modernen Titeln mittlerweile in Schlagweite zum 2600k - was damals komplett undenkbar war. Schau mal hier:
Faildozer in 2012, im Schnitt 9% hinter dem 2500k, 12% hinter dem i7. (https://www.computerbase.de/2012-10/test-amd-fx-8350-vishera/6/)

Faildozer in 2017, im Schnitt 11% vor dem 2500k, 6% hinter dem i7. (https://www.computerbase.de/2017-03/amd-ryzen-1800x-1700x-1700-test/4/#abschnitt_benchmarks_mit_fps_und_frametimes)

Und das Ryzen "nur" Sandy Bridge Performance in Spielen hat, halte ich auch für massiven Schwachsinn. Die meisten Reviewer bescheinigen Zen ungefähr Haswell IPC in Spielen.

Der_Korken
2018-10-20, 20:00:59
CPU Spieletests mit niedrigen Auflösungen waren schon immer Realitätsfern und noch nie ein zuverlässiger Indikator für zukünftige Performance.

Ich glaube, dass du den Begriff "Zukunftsprognose" hier völlig falsch interpretierst. Der Verweis auf zukünftige Spiele kommt deswegen, weil zukünftige Spiele natürlich mehr CPU-Last erzeugen und nicht weniger. Wenn also heute eine CPU für x fps reicht, dann heißt das nicht, dass das so bleibt. Der Verweis bedeutet aber NICHT, dass alle heutigen Abstände für immer in Stein gemeißelt sind. Allerdings gilt: Das einzige, womit CPUs, die heute zurückliegen, morgen noch nennenswert aufholen könnten, sind mehr Kerne bzw. Threads. Wenn also HEUTE ein 8C/16T-Intel 20% vor einem 8C/16T-AMD in 720p liegt, dann wird der auch in Zukunft ziemlich sicher einen ähnlichen Vorsprung halten können. Die Abstände zwischen 2600X und 8700K bzw. zwischen 2700X und 9900K werden sich also wahrscheinlich nicht mehr stark ändern. Einzig das Duell 2700X vs 8700K könnte sich noch zugunsten von AMD entscheiden.

Warum aber jetzt 720p? Weil es die beste Möglichkeit ist, das Limit jeder CPU zu testen. Selbst wenn da völlig uninteressante fps rauskommen, z.B. 2700X mit 160 vs 9900K mit 200 fps, enthält es trotzdem brauchbare Information. Man sieht, dass der letzterer 25% mehr rausdrücken kann im Grenzbereich. Testet man mit 1080p, bekommt man vielleicht 120 vs 126 fps raus, weil die verwendete 1080Ti nicht mehr schafft. Was hast du von dieser Information? Du weißt, dass der Ryzen in genau diesem einen Spiel reicht, um 120fps zu liefern. Der 9900K ist schneller, aber wieviel das kann man gar nicht sehen. Jetzt zu behaupten, dass der 9900K nur 5% schneller als ein 2700X wäre, ist dann einfach falsch. Noch besser sind Benches in 1440p, wo dann alles ab i5 8400/R5 2600 exakt gleich schnell ist.

Das wirkliche Argument, warum man auch höher als 720p benchen sollte, ist imho nicht, dass die Auflösung praxisnaher ist (das Argument ist sowieso absoluter Quatsch, ich teste die Beschleunigung eines Porsches doch auch nicht im Berufsverkehr, wo er genauso schnell wie ein Corsa ist, auch wenn das (leider) das praxisnahste Szenario überhaupt ist). Das Argument müsste lauten, dass man mit einer höheren Auflösung die irrelevanten fps-Peaks abschneidet. Ein Augenöffner war da für mich mal eine Bench-Szene aus Crysis 3, wo man am Anfang in den Himmel guckt (hohe fps) und später dann in die Ferne (niedrige fps). Im ersten Teil sind die i5 und i7 (damals noch mit 4C) nach oben geschossen und haben die Ryzens zersägt. Im zweiten Teil sind die Intels dann eingebrochen, weil plötzlich mehr zu tun war (vor allem parallel) und daher bei den 99th Percentiles die Ryzens schneller waren. Mit höherer Auflösung wären im ersten Teil, der CPU-technisch eigentlich eh irrelevant ist, alle CPUs im GPU-Limit gewesen und nur der zweite Teil hätte entschieden. Trotzdem kann man imho nicht auf 720p-Benches verzichten, weil man sonst gar nicht weiß, wann und wo das GPU-Limit liegt und man somit auch gar nicht weiß, ob man wirklich die CPU-Leistung gebencht hat.

tm0975
2018-10-20, 21:59:29
Wenn also HEUTE ein 8C/16T-Intel 20% vor einem 8C/16T-AMD in 720p liegt, dann wird der auch in Zukunft ziemlich sicher einen ähnlichen Vorsprung halten können.

es ging um zukunfssicherheit, also ist der vergleich ist ziemlicher quatsch. wenn ich mir heute statt eines 700 € (ist der überhaupt lieferbar?) einen 300 € prozessor kaufe, dann habe ich 400 € gespart. wenn ich mir nun in 3 (oder 10) jahren für das geparte geld etwas kaufe, dann ist das

1. definitiv zukunfssicherer
2. defnitiv schneller als der heutige 8 kernen, egal von wem.

w0mbat
2018-10-20, 22:08:05
Jetzt 400€ sparen und einen 2700X kaufen, für die 400€ dann nächste Jahr den 3700X. Und schon ist man schneller :D

Der_Korken
2018-10-20, 22:51:12
es ging um zukunfssicherheit, also ist der vergleich ist ziemlicher quatsch. wenn ich mir heute statt eines 700 € (ist der überhaupt lieferbar?) einen 300 € prozessor kaufe, dann habe ich 400 € gespart. wenn ich mir nun in 3 (oder 10) jahren für das geparte geld etwas kaufe, dann ist das

1. definitiv zukunfssicherer
2. defnitiv schneller als der heutige 8 kernen, egal von wem.

Was ist an dem Vergleich Quatsch? Mir ging es nur um die Aussage mit der Zukunftsfähigkeit und dass diese durch Benches aktueller Spiele nicht vorhergesagt werden könne. Wofür der einzelne dann sein Geld ausgibt, muss jeder selber wissen. Niemand ist gezwungen sich einen 9900K für so einen Preis zu holen. Wenn einem der 2700X bis zur nächsten Gen reicht und man darauf setzt, dass ein 3700X a) schneller als der 9900K und b) unter 400€ kostet, ist das eine valide Strategie. Trotzdem wird entgegen der aktuellen Benches ein 2700X bis dahin nicht am 9900K vorbeiziehen. Höchstens am 8700K wegen Kernzahl.

Schnäppchenjäger
2018-10-20, 22:57:39
Exakt. Und genau deswegen ändert sich an meiner Grundaussage nichts. Zusammen mit den Business Rechnern werden hier die grössten Summen umgesetzt, einfach aufgrund der hohen Stückzahlen. Deswegen ist die iGPU eben so eminent wichtig ;) Stell dir eine 16C Compile-Maschine vor, welche keine zusätzliche GPU benötigt. Für viele OEMs im B2B Bereich wäre das sehr attraktiv.

Schön, dass wir uns einig sind. :wink:
Nun erkläre mir doch mal, wieso ein 8700K eine iGPU braucht :confused:
So eine Monster-CPU benutzt man bestimmt nicht für etwas Office :cool:

Kein Gamer benutzt eine iGPU.... kein Nicht-Gamer braucht eine superpotente CPU.... deshalb beißt sich das und es stört mich, dass so viele iGPU unnötig verbraten werden.
Der Ansatz, den AMD hier verfolgt, finde ich viel besser als den von Intel :biggrin:
Wenn das so weitergeht, geht mir der Ice Lake sonstwo vorbei und ich sattle endgültig auf Zen2 um :eek:

registrierter Gast
2018-10-20, 23:02:28
Dein Tellerrand ist etwas beschränkt.

Denk doch mal an Software Entwickler. Die brauchen dicke Maschinen zum Kompilieren, aber um den Source Code auf den Monitoren zu zeigen reicht locker eine iGPU.

Auf Arbeit habe ich rein zufällig auch ein 8700k.

Relic
2018-10-20, 23:08:11
Dein Tellerrand ist etwas beschränkt.

Denk doch mal an Software Entwickler. Die brauchen dicke Maschinen zum Kompilieren, aber um den Source Code auf den Monitoren zu zeigen reicht locker eine iGPU.

Auf Arbeit habe ich rein zufällig auch ein 8700k.

Und wieviel % alle Kunden des 8700k sind das? Muss man dafür soviel Chipfläche für eine iGPU verschwenden oder ist es nicht sinnvoller, dass die 1% sich eine 20€ Graka reinschrauben?

registrierter Gast
2018-10-20, 23:53:16
Ja, muss man. Intel müsste ansonsten zwei Architekturen für Consumer CPUs pflegen. In der heutigen Zeit entspräche das einem dreistelligen Millionenbeitrag für Entwicklung, etc.

w0mbat
2018-10-21, 01:34:30
Ich glaube er mein, einfach ohne GPU wäre besser und da stimme ich ihm zu.

YfOrU
2018-10-21, 09:40:17
Und wieviel % alle Kunden des 8700k sind das? Muss man dafür soviel Chipfläche für eine iGPU verschwenden oder ist es nicht sinnvoller, dass die 1% sich eine 20€ Graka reinschrauben?

Der 6C+GT2 CFL Die deckt viel mehr ab als nur den 8700K

Desktop: i5-8400T bis i7-8086K
Xeon E: 2126G bis 2186G
Mobile: i5-8400B bis i9-8950HK

SFF und AiO haben oft keine dGPU. Der i5-8400 ist beispielsweise eine ganz normale Mainstream CPU (Office Desktop) und selbst in der fettesten mobilen Workstation will man eine IGP für Optimus/Switchable Graphics denn ansonsten ist die Akkulaufzeit für die Tonne. Nach Stückzahlen sind 8700K/8086K in Relation zu allen anderen SKUs Nischenprodukte. Weder AMD noch Intel legen für den Consumer Desktop separate Chips auf. Die bilden immer eine Schnittmenge mit Mobile oder Enterprise. Dedizierte Entwicklungen gibt es seit vielen Jahren nur noch für Mobile und Enterprise. Beispiele: 4C+GT3e oder SoCs wie Broadwell-DE.

Brillus
2018-10-21, 09:56:36
Kein Gamer benutzt eine iGPU.... kein Nicht-Gamer braucht eine superpotente CPU....

Programmierer fällt mir da so ein, kann super mit kleiner GPU leben braucht aber massig CPU. Höre doch bitte mit den absolut Aussagen auf.

robbitop
2018-10-21, 09:59:39
schön beschrieben, aber deine schlussfolgerung ist nicht logisch. das ist doch dann kein cpu test. das ist doch in bezug auf spiele lediglicih ein test des software, wie gut (oder schlecht) diese programmiert ist.

Das gilt dann letztendlich für alle Anwendungen. Der Betriebspunkt und die Bottlenecks sind nunmal prinzipbedingt andere als in anderen Anwendungen. Ich finde es interessant dort die CPU Leistung zu messen. Man kann zwar nicht 100%ig auf zukünftige Spiele schliessen. Aber zumindest ein Stück weit. Zumindest pro Core und Takt. Denn Spiele waren schon immer eher latenz/cache getrieben und je mehr ILP man aus einem Thread ziehen kann desto besser.
———————-

Dass BD besser wurde ggü SB liegt nur daran, dass er mehr Cores hat. (CMT verhält sich ja in der Hinsicht nahezu wie mehr Cores - gerade in Spielen braucht es ja auch mehr Integer und jeder CMT Core hat ja auch eigenen Cache)

SB-E war damals nicht schneller als SB. Heute schon.
Vergleicht man BD mit SB-E, sieht BD wieder alt aus in neueren Spielen.

Deswegen grenze ich das auf pro Core und pro Takt ein. Also man kann grob abschätzen wie schnell eine mArch pro Takt und pro Core in ähnlichen Anwendungsgebieten sein wird.

AlterSack
2018-10-21, 10:22:47
Ich glaube er mein, einfach ohne GPU wäre besser und da stimme ich ihm zu.

Da hätte ich eine andere Idee.
Ich wünschte mir generell einen SoC als MCM.
...das CPU-Die mit Speichercontroller und
nur die 16PEG-Lanes, sowie die Lanes für die Anbindung
der "SB". In die "SB" käme dann alles andere plus eine
Minimal-iGPU rein. Die müsste dann auch nicht im
modernsten Prozess gefertigt sein.
Im Gegenzug würde ich bei den GPU für Spielegrafikkarten
den ganzen 2D-Kram, Videodecoder und Bildausgabe etc.
weglassen. Denke, damit liesse sich bei den GPUs einiges
an Platz sparen, so dass man diese entweder kleiner und damit kostengünstiger gestalten könnte,
oder eben den Platz für mehr Recheneinheiten nutzen.

Windi
2018-10-21, 10:36:03
So teuer kann eine kleine iGPU gar nicht sein.

Das sieht man gut am neuen Athlon 200GE. Das ist ein normaler Raven Ridge, bei dem fast 2/3 des Chips deaktiviert wurden. Trotzdem verkauft AMD die APU (mit Gewinn) für 50€. (Und das ist der Endkundenpreis, bei AMD kommt viel weniger an)

Hier im Forum wurde Mal gesagt, das ein 200mm2 Chip gerade einmal 20€ in der Produktion kostet, solange die Stückzahlen hoch genug sind. Und eine Mini iGPU würde nur einen winzigen Bruchteil dieser Fläche aus machen. Das sind dann vielleicht zwei oder drei Euro. Ein Witz im Vergleich zu den Millionen, die ein weiterer Chip in der Entwicklung kosten würde.

Tobalt
2018-10-21, 10:47:41
Ich glaube viele würden sagen:
1) die Office APUs sind mit einer halbwegs nützlichen iGPU gut beraten, da in dem Sektor keien dGPUs genutzt werden
2) Die großen Ryzen und Threadripper brauchen eigentlich keine iGPU, allerdings wäre eine minimalistische iGPU, die einfach ein Bild ausgeben kann gut für einige Anwendungen, die zusammen soetwas rechtfertigen würden: um 2d-Strom zu sparen, um FreeSync auf nv zu nutzen, um ein GPU backup zu haben bei Schaden, für reine 2D user die viel kompilieren etc...

AMD hat dabei allerdings ein Problem:
Bei Raven Ridge ist ein Die drin, dieser hat die iGPU im Layout. Die Dies der Ryzen Familie haben derzeit keine iGPU. Würde man eine mini GPU einbauen, dann hätte man die anschließend mehrfach. Man müsste also einen Extra-Die nur für eine mini-GPU machen und an das IF anschließen. Diesen könnte man evtl in einem alten 28 nm Prozess machen zB. Aber ich glaube das ist nicht so einfach. Ich denke das IF ist einfach auf eine bestimmte Anzahl an Teilnehmern ausgelegt, so dass eine GPU da einfach die Balance zerstören würden ?;)


Im Gegenzug würde ich bei den GPU für Spielegrafikkarten
den ganzen 2D-Kram, Videodecoder und Bildausgabe etc.
weglassen. Denke, damit liesse sich bei den GPUs einiges
an Platz sparen, so dass man diese entweder kleiner und damit kostengünstiger gestalten könnte,
oder eben den Platz für mehr Recheneinheiten nutzen.

Die dGPU Hersteller würden das bestimmt gern tun, aber vorher muss es halt zum Standard werden, dass Mobo/CPU diese Sachen immer durchführen können. Man könnte die Soundchips wohl entsprechend zu Multimedia Chips aufbohren. Das hätte viele schöne Folgen, allen voran wäre nV mittelfristig gezwungen FreeSync zu unterstützen, da dann eh jeder über den MultimediaChip mit FreeSync das Bild ausgeben könnte :) Außerdem müssten CPU Hersteller nicht mehr über GPUs nachdenken.

LadyWhirlwind
2018-10-21, 10:53:55
So teuer kann eine kleine iGPU gar nicht sein.

Das sieht man gut am neuen Athlon 200GE. Das ist ein normaler Raven Ridge, bei dem fast 2/3 des Chips deaktiviert wurden. Trotzdem verkauft AMD die APU (mit Gewinn) für 50€. (Und das ist der Endkundenpreis, bei AMD kommt viel weniger an)

Hier im Forum wurde Mal gesagt, das ein 200mm2 Chip gerade einmal 20€ in der Produktion kostet, solange die Stückzahlen hoch genug sind. Und eine Mini iGPU würde nur einen winzigen Bruchteil dieser Fläche aus machen. Das sind dann vielleicht zwei oder drei Euro. Ein Witz im Vergleich zu den Millionen, die ein weiterer Chip in der Entwicklung kosten würde.

Eigentlich hast du dir die Antwort gleich selber gegeben. Wäre es günstiger alle CPUs mit einer iGPU auszustatten anstatt nur einige Modelle die seperat entwickelt werden, würde AMD das tun. Da sie es aber nicht tun, sieht AMD offenbar kein Vorteil darin.

Tobalt
2018-10-21, 10:56:24
Eigentlich hast du dir die Antwort gleich selber gegeben. Wäre es günstiger alle CPUs mit einer iGPU auszustatten anstatt nur einige Modelle die seperat entwickelt wurden, würde AMD das tun. Da sie es aber nicht tun, ist es offenbar nicht so.
Das Problem sind nicht die Kosten der iGPU, sondern die Multi-Die-Auslegung der Ryzens.

LadyWhirlwind
2018-10-21, 11:05:49
Das Problem sind nicht die Kosten der iGPU, sondern die Multi-Die-Auslegung der Ryzens.

Das macht eine iGPU aufwändig und daher teuer —> kosten.

Edit: so wie AMD ihre CPUs im Moment baut, lohnt es sich für AMD offenbar nicht.

Windi
2018-10-21, 11:19:23
Im schlimmsten Fall würde AMD dann bei Epyc 4x3€ verschwenden. Das ist jetzt nicht soo schlimm.
An der maximal Leistung der CPU ändert das aber nichts. Bei 64 Kernen limitiert einfach der Stromverbrauch. Eine deaktivierte iGPU ändert daran nichts.


Eigentlich hast du dir die Antwort gleich selber gegeben. Wäre es günstiger alle CPUs mit einer iGPU auszustatten anstatt nur einige Modelle die seperat entwickelt werden, würde AMD das tun. Da sie es aber nicht tun, sieht AMD offenbar kein Vorteil darin.

Was auch daran liegen könnte, das ZEN erst gerade gestartet war und AMD nichts verschwenden wollte. Das hat aber natürlich zur Folge, das man nicht immer das optimale Produkt anbieten kann.



Ich könnte mir aber auch vorstellen, das AMD diesmal von Anfang an unterschiedliche DIEs für Desktop und Server bringt. Momentan sind es ja auch schon zwei unterschiedliche Steppings.
Man könnte für den Server einen DIE mit 16C und dem ganzen notigen I/O Kram bringen (32 PCIe, 4 DIEs, 2 Sockel,...)
Und für den Desktop 12C + kleine iGPU. Da AMD bereit ist, auch mal den halben Chip zu deaktivieren, könnte man damit von 6C bis 12C alles abdecken.
Für Leute die mehr wollen, gibt es dann noch Threadripper und vielleicht ein paar Modelle mit nur einem Server-DIE.
Für Leute die es billiger haben wollen, könnte man erst einmal den Raven Ridge weiter verwenden. Mehr Leistung macht hier eh kaum Sinn, da die Speicherbandbreite limitiert. Und ein niedriger Stromverbrauch ist zwar wünschenswert, aber die OEMs bauen damit eh nur Mist und versauen alle möglichen Notebooks.

AffenJack
2018-10-21, 11:45:24
Selbst als Gamer, bevorzuge ich ganz klar eine IGP in der CPU. In 7nm würde mir auch eine 10 mm² Minigpu völlig ausreichen. Aber wenn man wichtige Dinge auf dem PC macht und man Pech hat, dass die GPU abraucht, ist erstmal Panik angesagt. Mit IGP dagegegen ist das 3 min umstellen und fertig. Klar können auch andere Dinge am Pc ausfallen, aber ich hatte bisher hauptsächlich Ausfälle von GPUs oder Netzteilen. Mit IGp kann ich das Ding dann einfach in ruhe einschicken und fertig. Ich will nächstes Jahr wohl mein System aufrüsten und ziehe vor allem Zen2 in Betracht, die fehlende igp ist da aber schon ein Manko.

davidzo
2018-10-21, 12:44:05
Ich kann bestätigen dass es viele Business-PCs gibt die eine einen 8700 oder 8700k fahren und demnächst wird wohl auch der 9700k oder 9900k gekauft.

Wenn ein Mitarbeiter 50K, 80K oder mehr im Jahr verdient, oder zu Stundensätzen von 100-400€ arbeitet, dann stellst du ihm keine 600€ Maschine hin "weil es ausreicht". Nein, der Mitarbeiter bekommt selbstverständlich die beste Hardware für den Job, selbst wenn die ihm nur Mikrosekunden an Zeit einsparen kann jedes mal wenn er ein großes excelfile lädt oder im web recherchiert. Zusätzlich gilt hier auch die Maxime die aquisition costs bzw. transistion costs gering zu halten. Und dabei sind Systeme mit vermeintlich überteuerten Highend-CPUs plötzlich auch für Bürorechner sehr attraktiv, wenn man dann die Lebenszeit im Büro um vielleicht 6-12Monate gegenüber einem midrangesystem verlängern kann.

Da wo ich herkomme (smb) suchen sich die Mitarbeiter ihr System, bzw. die Ausstattung selber aus. Die Grafiker haben alle ne 1070 drin "falls sie mal was mit 3D modellieren" und viele andere haben Macbooks mit Vollausstattung für >3K oder dell XPS oder Thinkpads mit 32Gb RAM.

w0mbat
2018-10-21, 12:48:25
Wenn ein Mitarbeiter 50K, 80K oder mehr im Jahr verdient, oder zu Stundensätzen von 100-400€ arbeitet, dann stellst du ihm keine 600€ Maschine hin "weil es ausreicht". Nein, der Mitarbeiter bekommt selbstverständlich die beste Hardware für den Job, selbst wenn die ihm nur Mikrosekunden an Zeit einsparen kann jedes mal wenn er ein großes excelfile lädt oder im web recherchiert.
Ich weiß nicht in welchem Schalraffenland du arbeitest, aber das ist die extreme Ausnahme. Auch 100k€ Leute arbeiten oft nocht an 5+ Jahre alten PCs, die sie extrem ausbremsen.

Complicated
2018-10-21, 12:57:19
Nein natürlich nicht, beim CPU Test wird ja nicht die GPU oder deren Treiber gewechselt. Das ist auch nur Last welche die CPU zu verarbeiten hat. Das du diese Frage stellst lässt mich dran Zweifeln, dass du überhaupt das zentrale Prinzip von Benchmarks verstanden hast.

Ja und da ist das Problem wie wir ja zuletzt bei den TR Tests gesehen habe. Andere GPU und massiv andere Testergebnisse. Wie kann man das denn als CPU Testaufbau bezeichnen? Das Prinzip von Benchmarks ist die Leistung der getesteten Komponente zu testen. Welches andere Prinzip du hier meinst scheint genau das Problem zu sein.

AlterSack
2018-10-21, 13:50:32
So teuer kann eine kleine iGPU gar nicht sein.

Das sieht man gut am neuen Athlon 200GE. Das ist ein normaler Raven Ridge, bei dem fast 2/3 des Chips deaktiviert wurden. Trotzdem verkauft AMD die APU (mit Gewinn) für 50€. (Und das ist der Endkundenpreis, bei AMD kommt viel weniger an)

Hier im Forum wurde Mal gesagt, das ein 200mm2 Chip gerade einmal 20€ in der Produktion kostet, solange die Stückzahlen hoch genug sind. Und eine Mini iGPU würde nur einen winzigen Bruchteil dieser Fläche aus machen. Das sind dann vielleicht zwei oder drei Euro. Ein Witz im Vergleich zu den Millionen, die ein weiterer Chip in der Entwicklung kosten würde.

was heisst hier ...ein weiterer chip?
die sb, fch oder wie auc immer wird eh gebraucht.
da noch die iGPU reinzupacken, in vllt. 28nm anstatt 65nm...?

AlterSack
2018-10-21, 13:54:04
Das macht eine iGPU aufwändig und daher teuer —> kosten.

Edit: so wie AMD ihre CPUs im Moment baut, lohnt es sich für AMD offenbar nicht.

Nein! wenn die iGPU im ohnehin vorhandenen Chipsatz
Platz findet, macht sie das nicht teuer.
Zumal bei einem SoC die "SB" nicht mehr braucht.

AlterSack
2018-10-21, 13:57:49
Im schlimmsten Fall würde AMD dann bei Epyc 4x3€ verschwenden. Das ist jetzt nicht soo schlimm.


Der ganze Klimbim, den man klassischerweise der NB zuschreibt,
dürfte bei Ryzen mit seinen 213mm² mehr als die Hälfte des
Platzes auf dem DIE einnehmen. ...und das x4 bei Epyc!

iuno
2018-10-21, 14:18:35
was heisst hier ...ein weiterer chip?
die sb, fch oder wie auc immer wird eh gebraucht.
Aber wie lange noch?
Es kommt doch eh schon der Grossteil vom SoC, im Notebook gehts schon ganz ohne. Selbst wenn man relativ sparsam ausstattet hat man bei Epyc immer noch das ganze x4.

Windi
2018-10-21, 14:39:52
Der ganze Klimbim, den man klassischerweise der NB zuschreibt,
dürfte bei Ryzen mit seinen 213mm² mehr als die Hälfte des
Platzes auf dem DIE einnehmen. ...und das x4 bei Epyc!

Ich meinte ja nur eine kleine iGPU und nicht den ganzen anderen Kram.
Aber das wird bei Epyc ja alles gebraucht: 2 Speichercontroller, 32x PCIe, Logik um 4 DIEs zusammen zu schalten, ...
Das braucht man halt, wenn man eine potente CPU und viele Verbindungen nach Außen haben will. Mit einem Chipsatz, der auf dem Mainboard sitzt, ist das nicht zu machen. Und ob AMD wirklich ihr gesamtes neues Design über den Haufen wirft und eine Art Chipsatz-DIE direkt neben die CPU setzt? Daran glaube ich nicht. Dann hätte man von Anfang an auf ein solches System setzen können. Dafür hat AMD wohl auch nicht das Geld, um in so kurzen Zeitabschnitten so großes Änderunge vorzunehmen.


Im Gegensatz zu Epyc verschwendet man bei Ryzen heute schon Chipfläche. Für den Sockel AM4 sind 32x PCIe Lanes, Logik für die 4 DIEs, und der ganze andere Server Kram völlig unnötig.
Und dabei wird Ryzen in viel größeren Stückzahlen als Epyc verkauft.
Also, so schlimm fände ich das jetzt nicht, wenn man beim Nachfolger auch einmal bei Epyc etwas Platz verschwendet.

Meezu
2018-10-21, 15:31:11
Ich gehe davon aus, dass diese ganze Thematik bei Zen 2 grundlegend anders darstellt. Die MCM / Chiplet Strategie wird AMD im Server Bereich weiter ausbauen. Ich finde die 9-Chiplets Variante für Rome, also den Serverbereich, sehr smart und logisch nachvollziehbar. Also 8x reine 8 Core CPU-Chips, welche nur ein Infinity Fabric als Verbindungschnittstelle haben. Dazu gesellt sich dann ein 14nm IO-Chip.

Wenn der Server Zen 2 so kommen sollte, dann hätte AMD für den Consumer Chip 2 Möglickeiten:
- Sie verwenden den selben 8 Core Chip. Das würde Sie zwingen, auch im Consumer ein MCM anzubieten, da Sie die IO-funktionen integrieren müssen. Sie hätten also alle Freiheiten, einen Consumer-IO-Chip in 14nm aufzulegen, der eine GPU enthält oder nicht. (Gleichzeitig sind sie bei der Max. Anzahl an Cores auf ein Vielfaches von 8 beschränkt.)
- logischer fände ich es aber die 2. Variante. Man baut für Consumer eine klassische Monolitische CPU. Dann spart man sich die MCM Ptoduktionsschritte und ist völlig frei bei der Implementierung von Funtionen. Also auch dann ist eine IGPU machbar. Allerdings müsste man bei dieser Variante kostbare 7nm Chipfläche opfern und könnte die IGPU nicht auf den billigen 14nm IO-Chip auslagern.

Das AMD für Server und Consumer den selben Chip inkl. IO verwendet war meiner Meinung nach eine Sondersituation bei ZEN 1, der mit der Finanzsituation zu tun hatte und eventuell auch, dass man im Bereich MCM noch nicht in die Vollen gehen wollte/konnte. Das wird sich in der gleichen extremen Weise nicht wiederholen, da AMD zusehends aggressiver, vor allem im Server Bereich, agieren möchte. Da stört es nur wenn man zu viel Rücksicht auf andere Marktsegmente nehmen muss.

Brillus
2018-10-21, 15:50:10
Ja und da ist das Problem wie wir ja zuletzt bei den TR Tests gesehen habe. Andere GPU und massiv andere Testergebnisse. Wie kann man das denn als CPU Testaufbau bezeichnen? Das Prinzip von Benchmarks ist die Leistung der getesteten Komponente zu testen. Welches andere Prinzip du hier meinst scheint genau das Problem zu sein.

Was zuallerst mal ein Bug war der sogar von NV eingestanden wurde.

Und insgesamt war der Benchmark sinnvoller wie einer in hocher Auflösung. Die CPU war ziemlich durchgänig am Arbeiten, und damit kann man eine Aussage treffen im Gegensatz zu high Res Benchmarks wo die einfach nur warten.

Bei dem Treiber ist halt der Vergleich von <64 Thread mit >=64 Threads nicht sinnvoll aber hätte man ein Intelsystem mit mehr als 63 Thread mitgebencht wäre zwischen dennen alles 100% OK gewesen.

bun
2018-10-21, 17:15:55
Ich glaube, dass du den Begriff "Zukunftsprognose" hier völlig falsch interpretierst.

Nein.


Wenn also HEUTE ein 8C/16T-Intel 20% vor einem 8C/16T-AMD in 720p liegt, dann wird der auch in Zukunft ziemlich sicher einen ähnlichen Vorsprung halten können. Die Abstände zwischen 2600X und 8700K bzw. zwischen 2700X und 9900K werden sich also wahrscheinlich nicht mehr stark ändern.

Das ist wahrscheinlich korrekt. Ein Haken wäre wie zukünftige Spiele mit den höheren Latenzen umgehen, die der Mesh Ansatz von Intel (Skylake-X) oder der Infinity Fabrik von AMD mitbringen. Den Ringbus Vorteil ist Intel demnächst los, spätestens wenn man mit AMDs 12 und 16 Kern Angeboten gleichzieht, die mit 7nm wohl kommen werden.

Der Vergleich scheitert dann daran, das Intel und AMD nicht 1:1 in Sachen Kernen konkurrieren. Gerade mit den jetzt wieder steigenden Preisen bekommt man bei AMD mehr Kerne fürs Geld. Und mit 7nm AMD vs 14nm+++++++ Intel wird sich das verstärken.


Warum aber jetzt 720p? Weil es die beste Möglichkeit ist, das Limit jeder CPU zu testen.

Nein. Nur weil das Viele "Tester" machen, wird es nicht richtiger. Jim hat auch im Video genau historisch aufgeschlüsselt, wieso das eine logische Denkfalle war (und immer noch ist).


Selbst wenn da völlig uninteressante fps rauskommen, z.B. 2700X mit 160 vs 9900K mit 200 fps, enthält es trotzdem brauchbare Information. Man sieht, dass der letzterer 25% mehr rausdrücken kann im Grenzbereich.

In dem Spiel in dem man Testet. Das ist nicht zuverlässig auf andere, insbesondere zukünftige Spiele zu übertragen. Man kann dann nur Aussagen treffen, die für das heutige Spiel in einer realitätsfernen Auflösung zutreffen. Was geringen Wert hat.


Testet man mit 1080p, bekommt man vielleicht 120 vs 126 fps raus, weil die verwendete 1080Ti nicht mehr schafft. Was hast du von dieser Information? Du weißt, dass der Ryzen in genau diesem einen Spiel reicht, um 120fps zu liefern. Der 9900K ist schneller, aber wieviel das kann man gar nicht sehen. Jetzt zu behaupten, dass der 9900K nur 5% schneller als ein 2700X wäre, ist dann einfach falsch. Noch besser sind Benches in 1440p, wo dann alles ab i5 8400/R5 2600 exakt gleich schnell ist.

Seriös wäre es zu akzeptieren das alle CPUs für aktuelle Spiele in relevanten Auflösungen schnell genug sind, um die schnellste existierende Grafikkarte zu füttern und das klar zu kommunizieren. Man muss halt akzeptieren das Hardware Reviewer keine Glaskugel haben, die die Zukunft vorhersehen kann.
Natürlich kann man Tendenzen ablesen und Leistungsreserven jenseits des Grafiklimits erahnen, aber zwingend übertragbar auf zukünftige Spiele ist das halt nicht.


Das Argument müsste lauten, dass man mit einer höheren Auflösung die irrelevanten fps-Peaks abschneidet. Ein Augenöffner war da für mich mal eine Bench-Szene aus Crysis 3, wo man am Anfang in den Himmel guckt (hohe fps) und später dann in die Ferne (niedrige fps). Im ersten Teil sind die i5 und i7 (damals noch mit 4C) nach oben geschossen und haben die Ryzens zersägt. Im zweiten Teil sind die Intels dann eingebrochen, weil plötzlich mehr zu tun war (vor allem parallel) und daher bei den 99th Percentiles die Ryzens schneller waren. Mit höherer Auflösung wären im ersten Teil, der CPU-technisch eigentlich eh irrelevant ist, alle CPUs im GPU-Limit gewesen und nur der zweite Teil hätte entschieden. Trotzdem kann man imho nicht auf 720p-Benches verzichten, weil man sonst gar nicht weiß, wann und wo das GPU-Limit liegt und man somit auch gar nicht weiß, ob man wirklich die CPU-Leistung gebencht hat.

Der Versuch völlig unterschiedliche CPU Architekturansätze (wenig Kerne, hohe singlethread Leistung vs viele Kerne, weniger singlethread Leistung) in einen einzigen FPS Balken zu quetschen ist mit einer Menge Kompromisse behaftet.

Wenn man das seriös und differenziert angehen will, müsste man profiling machen und schauen wie gut ein Spiel überhaupt die Ressourcen nutzt, wo die Flaschenhälse liegen, und das alles mit darstellen.
Leider liegt das teilweise sogar ausserhalb der Fähigkeiten der Spieleentwickler. Das braucht man von Hardware Testern nicht erwarten.

Ich finde die Idee, krampfhaft CPUs mit Spielebenchmarks zu differenzieren, und dann so lange die Benchmarkeinstellungen ins Absurde zu verdrehen bis genug Differenz herausfällt halt für den falschen Grundgedanken.

Schau mal wie Ian von Anandtech das macht. Benches in relevanten Auflösungen die durchaus wenig Differenzen zeigen, und dann jede Menge synthetische Benchmarks die einzelne Bereiche abklopfen.
Für Spieler ohne Ahnung sicher uninteressanter als Computercase Benches in 664p, aber um eine Größenordnung seriöser.

Linmoum
2018-10-21, 17:27:21
In dem Spiel in dem man Testet. Das ist nicht zuverlässig auf andere, insbesondere zukünftige Spiele zu übertragen. Man kann dann nur Aussagen treffen, die für das heutige Spiel in einer realitätsfernen Auflösung zutreffen. Was geringen Wert hat.
Du verstehst es immer noch nicht, oder?

Wenn Redaktion X CPU A in 720p mit 160fps und CPU B in 720p mit 200fps bencht, dann schaffen beide CPUs auch in FHD, WQHD und UHD diese 160fps respektive 200fps.
Wenn Redaktion Y CPU A und CPU B in demselben Spiel, mit demselben Test-Setup und derselben Benchmarkszene bencht (um das Beispiel zu verdeutlichen), allerdings in Full HD statt 720p, und CPU A dort 120fps schafft und CPU B 126fps, was hat Redaktion B dann anders gemacht als Redaktion A?

Richtig, im GPU-Limit die CPU getestet. Denn hätten Sie die CPU getestet, hätten sie auch in Full HD 160fps und 200fps kriegen müssen. Haben Sie nicht, also hat man die CPUs durch eine zu langsame Grafikkarte ausgebremst. Und damit im Prinzip "wertlose" Ergebnisse geliefert, die zum reinen Leistungsvermögen beider CPUs keine Aussage treffen. Was der Sinn dahinter ist, wenn man Hardware testet. Zu welcher Leistung ist sie imstande. Dasselbe ist eben auch bei GPUs der Fall.

Schau mal wie Ian von Anandtech das macht. Benches in relevanten Auflösungen die durchaus wenig Differenzen zeigen, und dann jede Menge synthetische Benchmarks die einzelne Bereiche abklopfen.

Für Spieler ohne Ahnung sicher uninteressanter als Computercase Benches in 664p, aber um eine Größenordnung seriöser.
Was du da beschreibst ist genau das Gegenteil von "seriöser". Denn da wird nicht getestet, welche Leistung die CPUs bieten.

Im Übrigen kann man dasselbe dann auch über Anwendungen sagen, dass man die Ergebnisse ja immer nur speziell für eine limitierende Anzahl anwenden kann. Wie bei Spielen eben.

w0mbat
2018-10-21, 17:50:28
Genau. Man testet Ferrari vs Golf ja auch nicht im Stau und sagt dann, beide sind gleich schnell. Klar wird man privat nie auf ner Rennstrecke fahren und im Stau sind beide wirklich gleich schnell, aber dafür muss man ja keinen Test machen.

dargo
2018-10-21, 18:29:01
Ah... Autovergleiche wieder. :up:

Auf einer Autobahn mit 120km/h Geschwindigkeitsbegrenzung sind der Ferrari und der Golf auch gleich schnell, zumindest solange sich beide an die Verkehrsregeln halten. Betrachte die Geschwindigkeitsbegrenzung als Auflösungslimit am PC. ;)

Keine Ahnung warum es immer wieder die gleichen Diskussionen gibt. Wie oft denn noch? Beide Ansätze sind legitim. Wenn ich ein mögliches GPU-Limit aus der Rechnung rausnehme (720p Tests) sehe ich vielleicht was die CPU ohne jenen GPU-Limit leisten könnte. Bringt mir in der Praxis aber u.U. auch nichts wenn hier und jetzt meine GPU nicht mehr liefern kann. Ganz einfache Geschichte. Diese 720p Tests sind höchstens für eine spätere Aufrüstung der GPU interessant sollte sie in der Praxis limitieren.

huey
2018-10-21, 18:31:58
Du verstehst es immer noch nicht, oder?

Was du da beschreibst ist genau das Gegenteil von "seriöser". Denn da wird nicht getestet, welche Leistung die CPUs bieten. ...


Die Leistung der CPU's wird ausschließlich mit synthetischen Test getestet bzw. sich dieser angenähert und als ganz einfacher Rundumschlag wäre vieleicht noch Cinebench tauglich um zumindest die grobe Leistung mit leichten Auf- und Abschlägen je Architektur aufzuzeigen.
Die Spielebenchmark's taugen doch wenn überhaupt nur für High-Frames Zocker und sagen auch nur genau zu diesem einen Spiel auf der jeweils getesteten Architektur was aus, aber für eine Leistungsbeurteilung und erst recht für einen Blick in die Zukunft sagen sie genau null. Wenn ein Ryzen 1700 seine Leistung mal auf die Straße bringt dreht er Kreise um einen i7 7700 was im Grunde schon impliziert das er mehr davon hat.

Welche vergleichbare Plattform seit der Einführung von Dualcores hat es mit weniger Kernen geschafft in der Zukunft noch Spieletauglich zu sein als der jeweilige Mehrkernprozessor es gerade noch so war?

Ob jetzt AMD gegen Intel oder jeweils gegeneinander spielt bei der Betrachtung keine Rolle.

bun
2018-10-21, 19:07:35
Du verstehst es immer noch nicht, oder?

Wenn Redaktion X CPU A in 720p mit 160fps und CPU B in 720p mit 200fps bencht, dann schaffen beide CPUs auch in FHD, WQHD und UHD diese 160fps respektive 200fps.

Die Verständnisprobleme liegen auf deiner Seite. Höhere Auflösungen die mehr Arbeit bei der GPU erzeugen, erzeugen auch auf CPU Seite Mehrarbeit.

Je nach dem wie das Spiel konkret programmiert wurde, kann das grob hinkommen - oder in manchen Fällen auch spektakulär nach hinten losgehen.

Und darum ging es auch nicht. Es ging um die Einbildung das man aus diesen Benchmarkwerten dann die Zukunft ableiten kann.

Man kann mit niedrigeren Auflösungen in heutigen Spielen vielleicht grob ableiten, wie diese Spiele mit den gleichen CPUs schnelleren Grafikkarten in der Zukunft laufen, aber keinesfalls wie zukünftige Spiele sich verhalten werden.

bbott
2018-10-21, 19:31:12
Selbst als Gamer, bevorzuge ich ganz klar eine IGP in der CPU. In 7nm würde mir auch eine 10 mm² Minigpu völlig ausreichen....

Was spricht denn dagegen eine alte PCIe Karte in der Hinterhand zu haben. Einfach einstecken und falls das zu viel Arbeit ist, beim SLI-Board mit laufen lassen ;)

APUs machen für Low- bis Mid-End-PCs in Notebooks und Embedded. Highend PC würde ich das Silizium für mehr Kerne Cache und PCI-Lanes investieren.

Man sieht doch das AMD Cache, PCIe-Lanes usw. beim RR einspart um platz zumachen für die GPU und ist immer noch größer als Zen(+).

BlackBirdSR
2018-10-21, 19:38:24
Die großen review Seiten sollten beim nächsten Test einfach mal die Spiele Tests nur mit 4K machen und nach dem 2. Spiel mit der Aussage den Test beenden und zu Synthetiks gehen, dass die neue Zen2 CPU genau so schnell ist wie alle alten in der Praxis, in Zukunft game Benchmarks daher sinnlos.

Möchte dann die Gesichter sehen 😂

Kriton
2018-10-21, 20:10:36
Die Verständnisprobleme liegen auf deiner Seite. Höhere Auflösungen die mehr Arbeit bei der GPU erzeugen, erzeugen auch auf CPU Seite Mehrarbeit.

Je nach dem wie das Spiel konkret programmiert wurde, kann das grob hinkommen - oder in manchen Fällen auch spektakulär nach hinten losgehen.

Und darum ging es auch nicht. Es ging um die Einbildung das man aus diesen Benchmarkwerten dann die Zukunft ableiten kann.

Man kann mit niedrigeren Auflösungen in heutigen Spielen vielleicht grob ableiten, wie diese Spiele mit den gleichen CPUs schnelleren Grafikkarten in der Zukunft laufen, aber keinesfalls wie zukünftige Spiele sich verhalten werden.

Ich hätte nicht gedacht, dass wir beide mal übereinstimmen.

Menace
2018-10-21, 20:19:28
Die großen review Seiten sollten beim nächsten Test einfach mal die Spiele Tests nur mit 4K machen und nach dem 2. Spiel mit der Aussage den Test beenden und zu Synthetiks gehen, dass die neue Zen2 CPU genau so schnell ist wie alle alten in der Praxis, in Zukunft game Benchmarks daher sinnlos.

Möchte dann die Gesichter sehen ��

Tja... Was soll man zu so einer Aussage jetzt noch sagen. :confused:

Test:


in allen gängigen Auflösungen testen mit Lowend-GraKs - Midrange - Enthusiasten;
Unterschiedliche Anwendungen testen und nicht nur Adobe-Software
Praxisnahe Testreihe mit Hintergrund Tasks (ist glaube ich heutzutage nicht mehr wichtig)
Boinc :biggrin:
Verbrauchsmessung
Effizienzmessung
Preisleistung
Aufrüstmöglichkeiten in 2 Jahren :D


Danach kann jeder das raussuchen, was für ihn wichtig wäre. Wäre Verbraucherfreundlich, weil man wohl sehen könnte, dass jenseits der Balkenlänge es gar nicht so wichtig ist, in teure CPUs zu investieren. Und das beste, jeder kann genau das Diagramm zücken, dass seine These unterstreicht.

Aber was Rede ich da... klar. Hier wird ja nur 4K Messungen gefordert. :freak:

LadyWhirlwind
2018-10-21, 20:54:19
Die Verständnisprobleme liegen auf deiner Seite. Höhere Auflösungen die mehr Arbeit bei der GPU erzeugen, erzeugen auch auf CPU Seite Mehrarbeit.

Je nach dem wie das Spiel konkret programmiert wurde, kann das grob hinkommen - oder in manchen Fällen auch spektakulär nach hinten losgehen.

Und darum ging es auch nicht. Es ging um die Einbildung das man aus diesen Benchmarkwerten dann die Zukunft ableiten kann.

Man kann mit niedrigeren Auflösungen in heutigen Spielen vielleicht grob ableiten, wie diese Spiele mit den gleichen CPUs schnelleren Grafikkarten in der Zukunft laufen, aber keinesfalls wie zukünftige Spiele sich verhalten werden.

In dem Zusammenhang sollte man auch nicht vergessen, dass die heutigen Konsolen relativ schwachbrünstige CPUs haben und es auch bei Intel lange nur 4 Threads gab. Sobald das ändert, kann das alles wieder sehr anders aussehen.

Windi
2018-10-21, 21:42:31
Man kann mit niedrigeren Auflösungen in heutigen Spielen vielleicht grob ableiten, wie diese Spiele mit den gleichen CPUs schnelleren Grafikkarten in der Zukunft laufen, aber keinesfalls wie zukünftige Spiele sich verhalten werden.
Natürlich kann man das.

Man muss nur etwas Ahnung haben. Im besten Fall schreibt der Reviewer, der auch die Benchmarks erstellt dazu einen netten Artikel.
Die Hardwarehersteller geben ja Informationen heraus, wie ihr Produkt aufgebaut ist (grundsätzlicher Aufbau, Anzahl der Kerne,...). Dazu kommen dann noch die Benchmarks, von denen es auch Erfahrungswerte gibt, wie sie sich auf den verschiedenen Architekturen verhalten. Wo sie besondere Stärken oder Schwächen haben und welche Features sie überhaupt unterstützen.
Auch wie sich die Spiele entwickeln werden, kann man grob abschätzen. Schließlich orientieren sich die Entwickler an der real existierenden Hardware beim Kunden, also Mainstream PCs und Konsolen. Heutzutage entwickelt kein Publisher mehr rein für High-End PCs, die maximal 1 Jahr alt sind.

Mit diesen Informationen kann man dann durchaus ableiten, wie hoch die Leistung in Zukunft seien wird. Natürlich nicht auf die Nachkommastelle genau, da wird es schon eine deutliche Fehlertoleranz geben.
Aber das wird sehr viel genauer sein, als wenn man alles im GPU Limit testet und alle Kandidaten praktisch gleich auf liegen.

Das geht natürlich nicht bei Day One Tests. Da muss man schon etliche Tests untereinander vergleichen und in den Foren weitere Informationen zur Architektur sammeln.
Es ist aufwendig, aber es ist möglich. Simple Balkenlängen-Vergleiche führen hier nicht zum Ziel.
Als Käufer will ich aber wissen, ob sich nun ein Produkt das doppelt so teuer ist wie ein anderes lohnt. Das kann leicht die Lebensdauer eines PCs verdoppeln oder halbieren. Vor allem, wenn man als Spieler nach mehreren Jahren nur die Grafikkarte tauschen muss, um wieder ein brauchbares System zu haben.

rentex
2018-10-22, 08:55:46
Zum Thema Games und AMD CPU im Allgemeinen: Wie wichtig ist die Optimierung der Software auf die jeweilige Architektur? Wäre das nicht ein Bereich, wo man noch was herausholen könnte?

Mr. Lolman
2018-10-22, 09:07:49
Wenn ein Mitarbeiter 50K, 80K oder mehr im Jahr verdient, oder zu Stundensätzen von 100-400€ arbeitet, dann stellst du ihm keine 600€ Maschine hin "weil es ausreicht". Nein, der Mitarbeiter bekommt selbstverständlich die beste Hardware für den Job,

So die Theorie. In Wahrheit wird häufig gespart wo geht.

amdfanuwe
2018-10-22, 09:20:27
So die Theorie. In Wahrheit wird häufig gespart wo geht.
Wenns wenigstens noch gespart wäre. Ich habe die letzten 8 Jahre als embedded Softwareentwickler immer nur einen Laptop mit Dokingstation 1 - 3 Monitore, dedizierte Tastatur und Maus vorgesetzt bekommen.
Wäre ein leistungsfähigerer PC sicher billiger gewesen.

Kriton
2018-10-22, 10:14:11
Zum Thema Games und AMD CPU im Allgemeinen: Wie wichtig ist die Optimierung der Software auf die jeweilige Architektur? Wäre das nicht ein Bereich, wo man noch was herausholen könnte?

Ja. Ich habe die getrennte Betrachtungsweise noch nie nachvollziehen können.

LadyWhirlwind
2018-10-22, 12:11:03
Wenns wenigstens noch gespart wäre. Ich habe die letzten 8 Jahre als embedded Softwareentwickler immer nur einen Laptop mit Dokingstation 1 - 3 Monitore, dedizierte Tastatur und Maus vorgesetzt bekommen.
Wäre ein leistungsfähigerer PC sicher billiger gewesen.

Laptops sind ja grundsätzlich nicht falsch, wenn sie genügend Leistung haben.
Was ich aber den Mitarbeiterten gegen über als eine Frechheit empfinde ist, dass diese keine guten Arbeitswerkzeuge bekommen.

Complicated
2018-10-22, 12:36:39
Da werden häufig tausende von selben Arbeitsgeräten für alle identisch angeschafft. Die Vorgaben für die Modelle geben dann der Vorstand und Vertrieb. Und dann sitzen 18 Monate später alle an 15W TDP U-Modellen mit 2 Kernen. Egal was sie damit machen müssen. Im meinem aktuellen Projekt sind grade 15.000 solcher Geräte im Rollout. Es gibt lediglich die Alternative sich ein Tablet mit Tastatur oder einen Thinclient auszuwählen.

dargo
2018-10-22, 12:46:03
Die großen review Seiten sollten beim nächsten Test einfach mal die Spiele Tests nur mit 4K machen und nach dem 2. Spiel mit der Aussage den Test beenden und zu Synthetiks gehen, dass die neue Zen2 CPU genau so schnell ist wie alle alten in der Praxis, in Zukunft game Benchmarks daher sinnlos.

Möchte dann die Gesichter sehen ��
Das wäre genau so sinnfrei. Dem User X der mit <4k spielt bringt so ein Test auch nichts.

Da werden häufig tausende von selben Arbeitsgeräten für alle identisch angeschafft. Die Vorgaben für die Modelle geben dann der Vorstand und Vertrieb. Und dann sitzen 18 Monate später alle an 15W TDP U-Modellen mit 2 Kernen. Egal was sie damit machen müssen. Im meinem aktuellen Projekt sind grade 15.000 solcher Geräte im Rollout. Es gibt lediglich die Alternative sich ein Tablet mit Tastatur oder einen Thinclient auszuwählen.
Bei uns werden endlich die alten Pentium Krücken langsam entsorgt und die Rechner von Windows 7 auf Windows 10 umgestellt. In den neuen stecken immerhin ein i3-6100 mit 8GB Ram. :cool:

Leonidas
2018-10-22, 17:23:52
Wenn AMD schlau ist (und Zen2 gut), machen sie ein Rome preview noch in diesem Jahr. Das würde sicher einige, die auf den i9-9900K schielen, davon abhalten.


Würde AMD sicherlich gern tun, verhagelt allerdings die aktuellen Verkäufe von Zen+. Daher dürfte man auch versucht sein, das man aus Zen-2-Epyc nicht auf Zen-2-Ryzen schließen kann. Ein paar CB-Hochrechnungen wird es geben, aber für echte Desktop-Tests dürfte Zen-2-Epyc zu viele Cores haben.




Der Sprung von Nehalem auf Sandy Bridge war so weit ich das richtig in Erinnerung habe innerhalb der Core Architektur der Größte, danach war dann auch einfach der Druck weg.


+31%
https://www.3dcenter.org/artikel/launch-analyse-intel-skylake/launch-analyse-intel-skylake-seite-2




Zwischen Zen+ und Zen2 liegt rund ein Jahr, es würde mich überraschen wenn das gross was kommt. Da wird vor allem 7nm mitgenommen und halt mehr Kerne.


Es ist eher zwischen Zen(0) und Zen2. Zen+ war eine separate Entwicklung. AMD hat ja selber gesagt, das unmittelbar nach dem Design-Ende zum originalen Zen (dürfte schon Anfang 2016 der Fall gewesen sein) sofort an Zen 2 entwickelt wurde. Sowas kommt in der (echten) 2. Generation faktisch von allein, da da vieles an Ideen ist, was es einfach nicht mehr ins Original geschafft hat.




Threadripper kam bisher immer erst im Herbst, und ich gehe auch davon aus, daß das so bleibt. Einerseits um die TR 29X0er Kunden nicht zu sehr zu verprellen, andererseits um Chips zu selektieren und zu sammeln.


Bisher hat AMD derart veröffentlicht:
Desktop-Server-Threadripper-APU

Nachdem nun aber der Server vorgezogen werden soll, dürfte es eher so ausgehen:
Server-Threadripper-Desktop-APU





Ende 2019 gibt es maximal Server-CPUs von Intel in 10nm, Consumer 2020.


Dat geht bei Intel (immer schon so) exakt umgedreht: Zuerst Consumer (10nm frühestens Ende 2019), danach erst Server/HEDT (10nm frühestens Mitte 2020).





[immy;11828491']Zum einen die schon angesprochene Notfall-GPU, dann würde es auch in Servern nicht schaden.
....
Müssen ja keine großen GPUs sein, reicht ja was kleines um das zu erreichen.


Bei den kleinen GPUs überwiegt dann die Chipfläche für Anbindung, Display- und Video-Einheit. Die 4x zu haben, aber maximal 1x nutzen zu können, wäre auch im Server-Bereich irgendwie ein schlechter Deal. Die 4x Chipsatz-Kapazitäten könnte man ja wenigstens im Extremfall mal nutzen - aber 4x Display- und Video-Einheit eben nicht, die braucht man wirklich nur 1x.





Im Gegensatz zu Epyc verschwendet man bei Ryzen heute schon Chipfläche. Für den Sockel AM4 sind 32x PCIe Lanes, Logik für die 4 DIEs, und der ganze andere Server Kram völlig unnötig. Und dabei wird Ryzen in viel größeren Stückzahlen als Epyc verkauft. Also, so schlimm fände ich das jetzt nicht, wenn man beim Nachfolger auch einmal bei Epyc etwas Platz verschwendet.


.... andererseits: Gute Argumentation für das Gegenteil!





Zusammen mit Raven Ridge sind es zwei Designs über welche versucht wird so viel vom Markt wie möglich zu adressieren. Grundsätzlich hat man damit mit dem geringst möglichen Aufwand ein top to bottom Portfolio. Das der Ansatz in der Praxis Schwachstellen hat sollte einleuchten. Für den Anfang passt das auch. Mittelfristig wird aber kein Weg daran vorbeiführen sich dem Portfolio des Marktführers weiter anzunähern (und damit mehr Designs zu bringen).


Genau dies dürfte passieren ... wenn die 7nm-Fertigung richtig läuft und AMD seine 2. 7nm-Generation herausbringt (2020). Dann ist Zeit für derart Feinarbeit.

Matrix316
2018-10-22, 23:05:33
Interessantes Video:

BKTH6DZYJwA

Der Zen 2 muss garnicht schneller sein, es reicht eigentlich schon schnell genug zu sein. Aber wenn man sich mal so Tests ansieht, dann ist die Ryzen IPC garnicht soweit weg von Intel. Wenn die den Takt ordentlich schrauben können... dann wird sich Intel noch umschauen.

w0mbat
2018-10-22, 23:21:10
Intel ist vor allem durch den höheren Takt schneller, das ist klar. Ein Zen+ schafft im Schnitt ca. 4,2GHz, mit gut Glück vielleicht manchmal auch 4,4GHz. Ein i7-8700K/i9-9900K sollte im Schnitt gut 4,8-5GHz schaffen und wenn es gut läuft 5GHz+.

Da sind gute 20% höherer Takt, klar zeigt sich das. Dazu hat Intel noch eine leicht höhere IPC (<10%) und somit kommt man in machen Spielen im CPU-Limit auf die 30% Performanceunterschied.

Wenn Zen2 bei der IPC aufholt, bzw. gleichzieht und dann im Schnitt 4,5GHz schafft würde das schon vollkommen reichen. Der Verbrauch wäre dank 7nm wohl deutlich unter einem i9-9900K und die Leistung läge insg. <10% hinter Intel. Das wäre der Todesstoß.

r3ptil3
2018-10-23, 00:29:46
Das Thema IPC finde ich im Vergleich zwischen AMD und Intel überbewertet.

Hier im Forum dominiert ja grundsätzlich die Spieleleistung der CPUs und anhand dessen wird sie eingestuft. Man sollte aber nicht vergessen, dass die Ryzen CPUs mit Spielen oft nicht richtig umgehen können. Das liegt weniger an der IPC, als an der Optimierung des Spiels selber. Nicht selten liegt ein 4790K vor einem 2700X bei gleichem Takt.

Mangel76
2018-10-23, 10:17:38
Das Thema IPC finde ich im Vergleich zwischen AMD und Intel überbewertet.

Hier im Forum dominiert ja grundsätzlich die Spieleleistung der CPUs und anhand dessen wird sie eingestuft. Man sollte aber nicht vergessen, dass die Ryzen CPUs mit Spielen oft nicht richtig umgehen können. Das liegt weniger an der IPC, als an der Optimierung des Spiels selber. Nicht selten liegt ein 4790K vor einem 2700X bei gleichem Takt.

Komische Sichtweise: Ryzen kann mit Spielen nicht umgehen, weil die Spiele nicht optimiert sind. Die Schlussfolgerung muss doch eigentlich sein, dass Spiele nicht mit Ryzen umgehen können.

Teilweise kommen neue Spiele ja schon etwas besser mit Ryzen zurecht, vor allem weil mittlerweile ja auch oft mehr als 4 Kerne genutzt werden. Da liegt dann auch kein 4790k mehr vor dem 2700 X. Andererseits hat der Aufbau mit 2 CCX und IF technische Nachteile bei Spielen. Hier kann Zen 2 hoffentlich noch ordentlich nachlegen.

Savay
2018-10-23, 10:20:47
Wenn der IPC Gewinn auch durch gesenkte IF und Speicher Latenzen kommt, dürfte Zen2 automatisch in Spielen signifikant gewinnen.
War ja schon mit Zen+ so, dass er u.a. deswegen in Spielen massiv zugelegt hat! (Stärker als in Anwendungen)

w0mbat
2018-10-23, 10:28:12
Wenn AMD den IF-Takt vom RAM-Takt entkoppeln kann und dieser dann mit sagen wir mal 2GHz läuft und zudem die cache und RAM Latenzen weiter senkt, würde Zen2 schon so in Spielen deutlich zulegen. Dazu etwas mehr Takt, was mit 7nm gut möglich sein sollte, und schon würde man zu Intel aufschließen. Da braucht es gar keine weitgreifenden Änderungen an den Kernen mehr.

Aber AMD wird sich sicherlich nicht lumpen lassen. Nur der finale Takt ist für mich noch etwas schwer einzuschätzen, weil wir hier eben 1st gen 7nm haben werden. Vielleicht rennt Zen2 wirklich mit >5GHz all-core, oder aber wir sehen ähnliche Taktraten wie schon bei Zen+ aber deutlich weniger Verbrauch.

YfOrU
2018-10-23, 10:46:26
Da sich auch Skylake-X sehr ähnlich verhält sehe ich das vor allen als Folge der höheren Skalierbarkeit der Architekturen (-> Enterprise). Im Client Segment funktioniert ein recht großzügiger und flotter inklusiver L3 Cache für alle Kerne grundsätzlich besser. Intel hat im Client Segment daran fest gehalten und auch die paar Leaks zu Icelake zeigen in diese Richtung. Es wird nicht nur die Anzahl der Einheiten skaliert sondern auch die Architektur an das jeweilige Segment angepasst. Den Luxus hat AMD nicht (-> one fits all).

Es wäre schon eine sehr große Überraschung wenn AMD mit Zen 2 CFL im Mittel in Spielen (CPU Limit) übertrifft.

DarknessFalls
2018-10-23, 16:17:43
Es wäre schon eine sehr große Überraschung wenn AMD mit Zen 2 CFL im Mittel in Spielen (CPU Limit) übertrifft.

Wo siehst Du da eine Überraschung? Wenn am Ende etwa 10% IPC-Steigerung und nochmal 10% Takt stehen, was beides IMHO nicht unwahrscheinlich ist, dürfte CFL bezwungen sein.

YfOrU
2018-10-23, 17:07:02
Das ist auch die Größenordnung wovon ich ausgehe. In einem typischen Mix aus Anwendungen würde das knapp ausreichen. Wenn es darum geht eine GPU zu füttern nicht. Beispiele:
https://www.tomshw.de/2018/10/19/intel-core-i9-9900k-i7-9700k-i5-9600k-im-test-review/10/
https://www.computerbase.de/2018-10/intel-core-i9-9900k-i7-9700k-cpu-test/2/#abschnitt_benchmarks_in_spielen_fhd__uhd

Langlay
2018-10-23, 17:13:09
Aber AMD wird sich sicherlich nicht lumpen lassen. Nur der finale Takt ist für mich noch etwas schwer einzuschätzen, weil wir hier eben 1st gen 7nm haben werden. Vielleicht rennt Zen2 wirklich mit >5GHz all-core, oder aber wir sehen ähnliche Taktraten wie schon bei Zen+ aber deutlich weniger Verbrauch.

An solche Taktraten glaube ich nicht, ich denke nicht das wir die 5 GHz Allcore sehen werden, wahrscheinlich nichtmal mit OC. Ich würde damit rechnen das wir irgendwo zwischen 4.5-4.7 GHz Allcore landen werden.

Linmoum
2018-10-23, 17:37:53
Viel interessanter als IPC und Takt ist es, wie sehr AMD die Latenzen weiter senken konnte. Gerade die Speicherlatenz hat man mit Zen+ ggü Zen bereits um ~10% reduzieren können. Ich gehe fest davon aus, dass man auch da nochmals kräftig optimiert hat. Und gerade das wird Spielen schmecken.

Opprobrium
2018-10-23, 17:52:05
Ist es denn technisch ohne weiteres möglich das Infinity Fabric vom Speichertakt zu entkoppeln? Erinnert mich irgendwie an die ersten Pentiums als die höhere MHz Zahl nicht ausschlaggebend für die Leistung war, weil bspw. der P90 mit einem Front Side Bus Takt von 133Mhz lief, während der beim P120 nur bei 100 lag (die Zahlen sind jetzt aus dem Gedächtnis, aber so in etwa).

Complicated
2018-10-23, 18:10:47
Das IF lässt sich nicht entkoppeln vom Speichertakt, da die Latenzen dann noch größer werden.

Allerdings gibt es ausser einer höheren Taktung eine weitere kaum beachtete Möglichkeit mehr Durchsatz für IF zu erzielen und vielleicht auch Latenzen zu verkleinern. IF ist ja vom Durchsatz an die Breite von PCIe gebunden wegen der Muxed Lanes für die Verbindung zwischen zwei Chips wie z.B bei TR und Epyc.

Mit der Einführung von PCIe 4.0 wird die Bandbreite verdoppelt weil doppelt so viele Transfers pro Takt möglich sind. Wenn AMD in der Lage ist diese doppelte Bandbreite bei gleich bleibendem Takt an IF weiter zu reichen könnte es da einiges bringen. Man muss nur sehen ob das auch für die OnChip IF zwischen CCXs ebenfalls anpassbar ist.
Sollte AMD dem gesamten IF die doppelte Bandbreite verpassen können würde es wohl interessante Effekte geben.

Nightspider
2018-10-23, 18:27:54
Ist jetzt aber auch nicht so als hätte IF bisher stark ausgebremst.

Vor allem bei Spielen nicht.

reaperrr
2018-10-23, 18:53:53
Bisher hat AMD derart veröffentlicht:
Desktop-Server-Threadripper-APU

Nachdem nun aber der Server vorgezogen werden soll, dürfte es eher so ausgehen:
Server-Threadripper-Desktop-APU.
Das bezweifle ich stark, ich gehe davon aus, dass die Reihenfolge Server-Desktop-TR-APU lauten wird.

Server zuerst zu bringen ist mMn eher eine strategische Entscheidung, weil hier jede Woche zählt, die sie bei Performance und Prozess vor Intel liegen.

Im Desktop kann man einen gewissen Rückstand über günstigere Preise kompensieren, im Servermarkt kriegst du dann im schlimmsten Fall einfach keine Aufträge. Und genau das will AMD ändern, die Chance im Serverbereich ist einfach einmalig.

Im Desktop wiederum ist es sinnvoller, zuerst die Einzel-Chips zu bringen. TR2000 werden sie nicht schon nach 8 Monaten wieder ersetzen wollen, außerdem wäre mit einem Einzelchip auf* ~9900K-Niveau viel mehr und schneller Gewinn zu machen, solange das Produktionsvolumen mitspielt.
Mal ganz abgesehen davon, dass die TR die günstigeren Epycs schon ein bisschen kannibalisieren könnten, deshalb lieber nicht zu schnell bringen.

*wenn 'über', natürlich erst recht

Complicated
2018-10-23, 21:44:24
Ist jetzt aber auch nicht so als hätte IF bisher stark ausgebremst.

Vor allem bei Spielen nicht.
Warum reden dann alle über höhere Takte bei IF? Wenn es ein Thema ist, dann ist hier schon eine Lösung möglich ohne den Stromverbrauch zu sehr zu erhöhen. Doppelte Bandbreite bei den Interconnects ist in Servern und Multisocket-Systemen in jedem Fall wichtig und von Vorteil.

Kriton
2018-10-23, 22:23:42
Das bezweifle ich stark, ich gehe davon aus, dass die Reihenfolge Server-Desktop-TR-APU lauten wird.

Server zuerst zu bringen ist mMn eher eine strategische Entscheidung, weil hier jede Woche zählt, die sie bei Performance und Prozess vor Intel liegen.

Im Desktop kann man einen gewissen Rückstand über günstigere Preise kompensieren, im Servermarkt kriegst du dann im schlimmsten Fall einfach keine Aufträge. Und genau das will AMD ändern, die Chance im Serverbereich ist einfach einmalig.

Im Desktop wiederum ist es sinnvoller, zuerst die Einzel-Chips zu bringen. TR2000 werden sie nicht schon nach 8 Monaten wieder ersetzen wollen, außerdem wäre mit einem Einzelchip auf* ~9900K-Niveau viel mehr und schneller Gewinn zu machen, solange das Produktionsvolumen mitspielt.
Mal ganz abgesehen davon, dass die TR die günstigeren Epycs schon ein bisschen kannibalisieren könnten, deshalb lieber nicht zu schnell bringen.

*wenn 'über', natürlich erst recht

Ich denke es liegt insbesondere auch daran, dass man bei den Margen der Server die (wohl noch teurere) Fertigung besser kompensieren kann als im Desktop.

Dorn
2018-10-23, 22:40:46
Wenn Zen2 bei der IPC aufholt, bzw. gleichzieht und dann im Schnitt 4,5GHz schafft würde das schon vollkommen reichen. Der Verbrauch wäre dank 7nm wohl deutlich unter einem i9-9900K und die Leistung läge insg. <10% hinter Intel. Das wäre der Todesstoß. Dann wird nach über einem Jahrzehnt mal wieder ein AMD CPU gekauft. :smile:

Leonidas
2018-10-24, 05:41:31
Ich denke es liegt insbesondere auch daran, dass man bei den Margen der Server die (wohl noch teurere) Fertigung besser kompensieren kann als im Desktop.


Server passt vor allem perfekt zu einer erst anlaufenden Fertigung. Niemand rennt am Tag der Vorstellung zu seinem Einzelhändler und ordert große Mengen. Demzufolge kann man zeitig vorstellen, gute Presse mitnehmen und die Konkurrenz lange bedröppelt aussehen lassen - und muß nichtmal viel liefern bzw. kann Liefertermine vergeben, ohne das dies ein großes Echo gibt. Für einen Launch von Retail-Produkten braucht man dagegen im CPU-Bereich sicherlich Kontingente von 100.000 Stück und mehr an sofort lieferbaren CPUs, den Bedarf der PC-Hersteller nicht einmal eingerechnet.

Unrockstar
2018-10-24, 22:28:22
Richtig Leo,

Hinzu kommt ja, dass Intel schon massiv Rabatte geben muss, damit AMD nicht die Aufträge bekommt..Nicht umsonst gabs eine Umsatzwarnung im Bereich Enterprise (die obligatorischen kommenden harten Jahre im Serverbereich) . Ich bin auch sehr gespannt, ob Spectre NG, die Sicherheitsbehörden in USA umdenken lässt, und man mehr AMD Produkte kauft.
Man schaue sich mal die Meldungen an von Cray zb.:
https://www.hpcwire.com/2018/04/18/cray-rolls-out-amd-based-cs500-more-to-follow/
Ebenso die Werbung von Oracle für AMD..
Das wird spannend werden, und wie du schon sagtest, solche Langzeitinvestments rechnen sich ja auch mit den Orderzahlen eines 7nm TSMC Prozesses. Ich möchte nicht wissen, was passiert, wenn es einen Run auf Zen2 gäbe... Vermutlich wie bei Vega Vaporware


Danke übrigends für das Video, der Typ ist echt sympatisch und bringt es auf den Punkt.

Ich denke, CES werden wir neben den Zen2 auch von HP, Dell, ggf. Apple und Lenove viele Produkte mit AMD CPUs sehen..

nagus
2018-10-29, 21:16:00
Es gibt neue Gerüchte zu Rome: https://www.semiaccurate.com/2018/10/29/more-details-about-amds-rome-cpu-leak/

neuer Sockel
non-NUMA architecture
IOX chip not a mere bootrom and low speed I/O, it is a full memory controller.

"Leistungsvorsprung von mehr als 50% gegenüber Cascade Lake zu einem Bruchteil des Preises"

Die Sache mit dem Memory Controller scheint mir als Leihe plausibel. Anders würde es wahrscheinlich schwierig so viele Kerne mit Daten zu füttern. (ähnlich wie beim 2990WX). Und da wir mir Sicherheit kein 16-Channel Speicherinterface sehen werden (Naples 32 Kerne 8 Channel > Rome 64 Kerne 16 Channel?!), muss man das irgendwie anders lösen.

w0mbat
2018-10-29, 21:37:30
Aber wieso gleich ein neuer Sockel?

teetasse
2018-10-29, 22:11:55
Leider hinter einer Paywall.



Die Sache mit dem Memory Controller scheint mir als Leihe plausibel.
AMD leiht sich einen Memory Controller? :wink:

Brillus
2018-10-29, 22:31:46
Kann nicht hinter die Paywall schauen, aber wenn man das wie ich es verstanden habe mit einem Chip für (unter anderem) Ram-Anbindung stimmt, dann wird es richtig interesant für Desktop. Da kann man sich vieles denken.


Mini GPU im zentrallen Chip
GPU als weiteren Client mit dann sehr flexibellen aufbau bzgl. Varianten.
Unterschiedliche GPU Chips evtl. geteilt mit Entry level Graka

amdfanuwe
2018-10-29, 23:12:11
@Brillus
Vergess nicht die TDP und die Speicherbandbreite als limitierende Faktoren.

Der_Korken
2018-10-29, 23:27:05
Macht es im Desktop-Bereich überhaupt Sinn, den MC in einen anderen Chip auszulagern? Das ganze würde sicherlich einiges auf die ohnehin schon hohe Speicherlatenz aufschlagen und den IPC-Bonus von Zen2 auffressen. Dann doch lieber einen eigenen Die auflegen mit 8C, IMC und minimaler iGPU.

Unicous
2018-10-29, 23:32:19
Das wird sicherlich nur für Epyc sein und für die SKUs mit sehr hohen Threadcounts. Ich denke der "alte" Sockel wird weiterlaufen und sie werden auch weiterhin Threadripper darunter laufen lassen.

Da die AM4-Plattform noch ein paar Jahre weiterläuft wird es da auch keinen "I/O" Chip geben und braucht es auch nicht, wenn man eh bei DualChannel bleibt.

Hört sich jedenfalls einigermaßen verrückt an. Aber wir hatten die Diskussion ja schon vor ein paar Wochen.

amdfanuwe
2018-10-29, 23:35:08
Dann doch lieber einen eigenen Die auflegen mit 8C, IMC und minimaler iGPU.
Nennt sich APU und kommt wohl erst Ende 2019.
Fehlt dann immer noch eine Ryzen 3000 Lösung.

amdfanuwe
2018-10-29, 23:39:20
Da die AM4-Plattform noch ein paar Jahre weiterläuft wird es da auch keinen "I/O" Chip geben und braucht es auch nicht, wenn man eh bei DualChannel bleibt.

Nimm doch einfach einen Pinnacle Ridge mit defekten Cores und häng ein 8 Core 7nm Chiplet an den IFOP, oder sogar 2 Chiplets. Ryzen hat ja 4 IFOPs.

Interessant wäre natürlich auch eine kleine 2 Core APU mit zusätzlichen IFOPs.
Die ließe sich dann auch noch als einzel Chip verkaufen.

Der_Korken
2018-10-29, 23:51:22
Nennt sich APU und kommt wohl erst Ende 2019.
Fehlt dann immer noch eine Ryzen 3000 Lösung.

Das gesagte sollte bereits der Desktop-Ryzen sein. APU dann 4C+bessere iGPU. Ein Ryzen-Die wird sicherlich nicht mehr Cores haben als ein Epyc-Die, denn der einzige Grund warum man dort bei 8C/Die bleibt, wären hohe Herstellungskosten für 7nm. Und das im Bereich mit der höchsten Marge.

Tarkin
2018-10-30, 07:27:27
https://www.youtube.com/watch?v=K4xctJOa6bQ

Epyc Update!

Klingt so, als müsste sich Intel die nächsten Jahre WARM anziehen. Nov 6. dürfte spannend werden!

MR2
2018-10-30, 07:33:49
2 Core "EXTREME" Turbo? :-)

mboeller
2018-10-30, 08:23:38
ich finde die Gerüchte ein wenig seltsam. Es würde aber wahrscheinlich massiv Die-area einsparen.

1 ZEN CCX ist ja 44mm² groß. Ein Ryzen ist ja 192mm² groß (wiki als Quelle)
1 ZEN2 CCX/Chiplet mit 8 Kernen und einem Highspeed IF-Interface zum IOX könnte in 7nm vielleicht nur 60mm² klein sein. 8 davon also nur 480mm²; im Gegensatz dazu wäre eine ZEN2 CPU wahrscheinlich ca. (192 x 0,6= ) 115mm² groß, 8 davon also 920mm²
Der IOX SoC könnte in 14/12nm oder auch 16nm gefertigt werden. Speicheranbindungen skalieren ja nicht gut mit der Fertigungstechnologie. Größe: ???
Der Interposer für so eine 64-Core CPU wäre vielleicht nur 700-800mm² groß

AMD würde dadurch also zumindest ca. 50% an 7nm Fertigungskapazität und > 60% der 7nm Kosten einsparen (incl. Yield). Wahrscheinlich wäre das ganze trotz IOX und Interposer auch günstiger zu fertigen als ein 8 CPU Server-Monster.

Eine Desktop-CPU wäre dann halt 1-2 Chiplet + 1 kleiner IOX (12nm) auf einem Interposer und eine APU auch 1 Chiplet + 1x GPU/IOX (12nm) auf einem Interposer.

Skalierung einmal anders als bei Ryzen. Alternativ zum Interposer wäre auch noch das EMIB System von Intel oder was ähnliches denkbar und wahrscheinlich viel günstiger als ein Interposer.

link:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/46810-amd-forscht-an-aktivem-interposer-als-emib-gegenstueck.html

YfOrU
2018-10-30, 08:37:42
Das wird sicherlich nur für Epyc sein und für die SKUs mit sehr hohen Threadcounts. Ich denke der "alte" Sockel wird weiterlaufen und sie werden auch weiterhin Threadripper darunter laufen lassen.

Sehe ich auch so. SP3 nach nur einer Generation und damit praktisch auch die gerade erst gewonnenen Designs bei den OEMs wieder aufzugeben wird kaum passieren.


Da die AM4-Plattform noch ein paar Jahre weiterläuft wird es da auch keinen "I/O" Chip geben und braucht es auch nicht, wenn man eh bei DualChannel bleibt.

Ein weiteres Design neben der APU auf AM4 ohne IGP welches nicht auch für Server einsetzbar ist macht wenig Sinn. Entweder zwei APUs oder ein Nachfolger für Zeppelin welcher wie gehabt AM4 und SP3/TR4 bedient. Ansonsten dürfte es auch auf AM4 einen I/O Chip brauchen.

Piefkee
2018-10-30, 08:42:04
https://www.youtube.com/watch?v=K4xctJOa6bQ

Epyc Update!

Klingt so, als müsste sich Intel die nächsten Jahre WARM anziehen. Nov 6. dürfte spannend werden!


Sag nur ZenX ;D:freak::confused:

Ich glaube nun langsam das AMD mit Zen2 weg von nur 1 Core Design geht. Ich denke das wir eher etwas in folgenden sehen werden.

EPYC 2 --> Zen2 8Core ohne Controller nur Kerne + Cache
Zen2 --> 8Core 2x4CCX + Controller+ I/O


Hat man zwei Chip Design was natürlich finanzielle Nachteile mit sich bringt aber auch viele Vorteile. Natürlich könnte der Desktop Chip als 6CCX kommen damit kann man dann auch die APU ordentlich mit 6 Kernen bauen.

amdfanuwe
2018-10-30, 10:27:03
Alternativ zum Interposer wäre auch noch das EMIB System von Intel oder was ähnliches denkbar und wahrscheinlich viel günstiger als ein Interposer.

Bei EPYC und Threadripper gehts ja auch ohne Interposer. Wäre bei Rome sogar weniger kompliziert, da nur eine Verbindung zwischen CPU Chip und IOX benötigt wird und die Verbindungen der CPU Chips untereinander entfallen.

Setsul
2018-10-30, 11:26:28
@mboeller:
Das ist wahrscheinlich etwas zu optimistisch gerechnet.
Bei 2 CCX pro Chip braucht man auch IF zwischen den CCX und ein bisschen Uncore bleibt auch, also kann man sich streiten ob 60mm² reichen. Das Hauptproblem ist aber dass Zen2 Kerne garantiert nicht die selbe Größe (prozessnormiert) haben werden. Irgendwo muss die IPC schließlich herkommen.

Wenn man jetzt optimistisch ist und sagt Zen2 braucht genauso viel I/O wie 4 Zen1 Chips und alles skaliert perfekt mit Faktor 0,6 dann kommt man auf 220mm². Das wären 700mm² reine Diefläche. Keine Chance das auf einen 700-800mm² Interposer zu bringen, zwischen den Chips muss ein bisschen Abstand sein.
Dazu kommt ein geometrisches Problem. Die Chips haben ja keine beliebige Form. Für gleichmäßige Latenzen würde man den IOX in die Mitte setzen und dann als 3x3 Quadrat/Rechteck, aber der Chip wird wie gesagt größer. Wenn man vereinfacht von quadratischen Dies ausgeht und mit den optimistischen 220/60mm² rechnet, kommt man auf knapp 15mm und knapp 8mm Seitenlänge. Selbst mit <1mm Abstand zwischen den Seiten kommt man für das ganze Quadrat auf >30mm und irgendwas um 1000mm² für den Interposer.
Dann werden die Dies eigentlich größer sein und der Interposer hat außen noch einen kleinen Rand.
Klar, der aktive Teil des Interposers muss nur weit genug unter die äußeren Chips gehen um die Verbindungen zu erreichen, also kommt man da eigentlich locker mit dem Maskenlimit zurecht, aber das ganze Ding wird über 1000mm² groß sein.

Locuza
2018-10-30, 11:35:36
Die 60mm² kommen auch von der Annahme her, dass AMD 7nm mobile (>90MTr/mm²) verwenden wird.
Laut Ashraf Eassa hat AMD ihm aber bestätigt das Zen2 und V20 unter 7nm HPC hergestellt werden und der Prozess bietet deutlich weniger Dichte (67MTr/mm²) an.

Wenn man stupide eine reine Skalierung für Zen1 annimmt, welcher unter 14nm hergestellt wird mit einer theoretischen Dichte von 33MTr/mm² (praktisch erreicht man weniger), dann wäre der die statt 213mm² noch 107mm² groß und keine 60-70mm².
Und wie du gesagt hast, Zen2 wird größer als Zen1 ausfallen, laut Gerüchten verdoppelt AMD die L3$-Größe + was auch immer sie sonst noch machen.

Edit: Ich selber habe hier das neue Design unter den Teppich gekehrt.
Wenn AMD da das meiste hin auslagert und nur ein dürrer SDF übrig bleibt, dann wären die core dies vermutlich schon ziemlich klein.
Es stellt sich dann aber die Frage, wie Ryzen-Produkte aussehen?
Die müsste AMD dann auch immer als MCM verbauen, 1 Kern-Chip + 1 IOX-Chip?
Wie sieht davon dann die Latenz aus?

Spannend.