PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Ice Lake (Mobile, 10nm, 2019) & Ice Lake SP (Server, 10nm, 2020)


Seiten : 1 [2] 3 4 5

Leonidas
2019-01-25, 10:57:15
During CES, there was some discussion around Ice Lake but very little was said about the accompanying chipset. We have heard through our industry sources (who will remain anonymous) that Intel is struggling in this area, with the upgrade to PCIe 4.0 being an issue in particular. There is some concern that this will end up causing more delays for Intel’s 10nm launch.

https://www.kitguru.net/components/cpu/matthew-wilson/rumour-intels-10nm-launch-may-be-impacted-by-chipset-issues/



Könnte stimmen.


Könnte genauso gut aber auch eine Misinterpretation von jemanden sein, der keinen blassen Schimmer von realen Vorgängen hat und einfach nur gehört hat, das Intel "Probleme hat, so schnell PCIe 4.0 zu bringen". Das bedeutet aber einen Scheiss - es bedeutet nur, das PCIe 4.0 nicht auf der Roadmap steht, so wie das bei Ice Lake eigentlich der Fall ist. Das bedeutet nicht, das die Mobos irgendwelche wirklichen Probleme hätten.

Nebenbei muß Intel wirklich nicht in der allerersten Generation PCIe 4.0 auch in die Chipsätze bringen. In der CPU reicht es komplett aus. Aber genau das fehlt Ice Lake eigentlich - sofern es Intel nicht wegen all der Verzögerungen dann doch noch hinzugetragen hat.

gmb
2019-01-25, 16:22:54
During CES, there was some discussion around Ice Lake but very little was said about the accompanying chipset. We have heard through our industry sources (who will remain anonymous) that Intel is struggling in this area, with the upgrade to PCIe 4.0 being an issue in particular. There is some concern that this will end up causing more delays for Intel’s 10nm launch.

https://www.kitguru.net/components/cpu/matthew-wilson/rumour-intels-10nm-launch-may-be-impacted-by-chipset-issues/

Bei der ganzen Vorgeschichte um 10nm würde mich das jetzt auch nicht mehr wundern.


Und das Intel jetzt erst gemerkt? Von welchen Industriequellen sprechen die? Ach von einer anonymen, alles klar. Nur gut, dass kitguru exklusiv davon berichtet und es bislang keine Hinweise darauf gibt. Das klingt stark nach Hoax, kitguru selber ist ja schon mit sehr viel Vorsicht zu genießen, noch dazu ist von einer anonymen Quelle die Rede. Den Hoax könnte ich denen auch zustecken.

Es gibt anonyme Quellen, die von Sommer sprechen, andere sagen Ende Q3. Dell will ein neues XPS mit ICL-U zur Computex vorstellen.

bbott
2019-01-25, 18:59:50
Ursprünglich hatte ich das als gute Nachricht für AMD interpretiert, aber inzwischen bin ich der Meinung dass zur Not PCI-Express 3 auch reicht. Ich bin sicher dass Intel nicht wegen PCI-Express 4 Ice Lake verschieben würde, anderenfalls ist es mMn nur ein vorgeschobener Grund und die 10 nm laufen dann doch immer noch nicht.

G3cko
2019-02-05, 20:01:24
Auf welcher Plattform wird Cooper Lake und Ice Lake sein Debü feiern und kann man den Release schon eingrenzen?

Loeschzwerg
2019-02-05, 20:17:03
Server/Workstation -> Beides "Whitley". Cascade Lake Systeme tröpfeln ja erst so langsam auf den Markt, da kann man mit Cooper Lake effektiv erst 2020 rechnen.

gmb
2019-02-05, 21:29:38
Intel Turns Graphics up to (Gen) 11 (https://www.linleygroup.com/mpr/article.php?id=12091)


Ausführlicher Artikel über die Neuerungen in Gen11.

Zossel
2019-02-05, 21:49:05
Aber der Aufbau (big.LITTLE, LPDDR4X) hatte sich ja bewährt, also finde ich es gut, dass Intel sich nicht zu schade ist, was Bewährtes zu kopieren

Aber wird es jemals ein Windows mit einem brauchbaren Scheduler geben der auch mit Big-Little klarkommt?

gravitationsfeld
2019-02-05, 22:06:37
Intel Turns Graphics up to (Gen) 11 (https://www.linleygroup.com/mpr/article.php?id=12091)


Ausführlicher Artikel über die Neuerungen in Gen11.
Kein half rate DP mehr. Endlich Einsicht, braucht kein Mensch.

danarcho
2019-02-05, 22:43:02
Kein half rate DP mehr. Endlich Einsicht, braucht kein Mensch.
Soweit ich verstanden habe, nimmt Intel für zukünftige GPUs die double Unterstützung sogar komplett raus
I told ya :)

Locuza
2019-02-05, 23:12:40
Dank danarchos letztem Hinweis nicht völlig überraschend, aber ich habe früher eher erwartet das Intel von 1:4 runtergeht und nicht komplett den nativen HW-Support streicht.

Die ~10% die für den TBR genannt werden, sind ungefähr auf dem Level was AMD bei Vega dank dem DSBR gewinnt.

Zossel
2019-02-05, 23:45:21
Kein half rate DP mehr. Endlich Einsicht, braucht kein Mensch.

Wieviel SP-Performance verliert man durch half rate DP?
Wieviel Die-Fläche verliert man durch half rate DP?
Wieviel elektrische Leistung verbruzzelt half rate DP?

Jeweils bezogen auf GPU-typische Vector-ALUs.

gravitationsfeld
2019-02-06, 03:58:05
Muesste ich schaetzen, aber es ist definitiv nicht unerheblich. Half-Rate Addition ist trivial, aber Multiplikation nicht.

Zossel
2019-02-06, 07:55:46
Muesste ich schaetzen, aber es ist definitiv nicht unerheblich. Half-Rate Addition ist trivial, aber Multiplikation nicht.

Wann du was dazu findest oder valide schätzen kannst, das ist etwas was ich mich schon lange frage.

BTW: Da 3D nicht so mein Ding ist, was sind den die typischen Operationen die dabei anfallen? (Einigermaßen ernsthafte Mathematik ist bei mir auch schon ein paar Jahrzehnte her)

danarcho
2019-02-06, 08:58:58
Wann du was dazu findest oder valide schätzen kannst, das ist etwas was ich mich schon lange frage.

BTW: Da 3D nicht so mein Ding ist, was sind den die typischen Operationen die dabei anfallen? (Einigermaßen ernsthafte Mathematik ist bei mir auch schon ein paar Jahrzehnte her)
Der größte Teil sind FP32 operationen, wovon die meisten tatsächlich auf add und mul fallen (bzw werden die nach Möglichkeit vom Compiler kombiniert). Dazu kommen noch recht viele Speicherzugriffe und dann der Rest.

Was die Größe der double Logik angeht: selber rechnen macht schlau:
Unter SIMD Closeup (http://chipsleuth.com/tahiti.html) steht "While the units look identical at first sight, they have a slightly different height: SIMD01 is 1.12mm, SIMD23 is 1.15mm." Da Tahiti ein DP:SP von 1:4 hat, bietet sich die Schlussfolgerung an, dass SIMD0+1 keine DP Logik haben, während SIMD3+4 jeweils 1:2 bieten.

Gipsel
2019-02-06, 09:33:46
Was die Größe der double Logik angeht: selber rechnen macht schlau:
Unter SIMD Closeup (http://chipsleuth.com/tahiti.html) steht "While the units look identical at first sight, they have a slightly different height: SIMD01 is 1.12mm, SIMD23 is 1.15mm." Da Tahiti ein DP:SP von 1:4 hat, bietet sich die Schlussfolgerung an, dass SIMD0+1 keine DP Logik haben, während SIMD3+4 jeweils 1:2 bieten.Nein, die können alle 1:4 (es gibt keine Beschränkungen, daß DP nur auf einer Hälfte der SIMDs ausgeführt werden könnte). Die leicht unterschiedliche Größe passiert halt bei einem automatisiertem Layout, was die verschiedenen Abstände zur Skalareinheit und dem LDS berücksichtigen muß und gleichzeitig noch irgendwie die Daten von den TMUs über die (minimal größere) SIMD2/3 zu SIMD0/1 leiten muß.

Da schaut man besser zu Hawaii (oder auch Vega20) für 1:2 DP.

Setsul
2019-02-06, 10:44:22
Wieviel SP-Performance verliert man durch half rate DP?
Wieviel Die-Fläche verliert man durch half rate DP?
Wieviel elektrische Leistung verbruzzelt half rate DP?

Jeweils bezogen auf GPU-typische Vector-ALUs.
1. Keine, wieso sollte das die SP-Performance beeinflussen?
2. Auf ALU-Ebene ist es signifikant aber auf das Ganze bezogen sind es ein paar Prozent. Im Vergleich zur Fläche die Intel bereit ist wegzuwerfen für iGPUs die die meisten nicht brauen ist es lächerlich.
3. Je nach Powergating im Idealfall keine. Die 1/4 statt 1/2 sind wahrscheinlich um nicht über die TDP zu kommen wenn man tatsächlich DP benutzt.

Ich nehme an, dass Intel den Markt besser, einfacher und profitabler mit dGPUs abdecken will. Die klassische GT2-config verliert gegen weniger TDP beschränkte AMD dGPUs mit 1/16 DP für knapp über 100$.

Lieber alles Unnötige sparen bei den iGPUs, 1 TFlops SP ist schwierig genug mit der TDP Einschränkung und bei einer doppelt so großen iGPU verdoppeln sich auch die Die Kosten für DP. Dafür dann dGPUs bauen bei denen die gesamte DP Performance tatsächlich konkurrenzfähig ist.

Ich meine wenn Intel 10 Jahre lang kein DP gehabt hätte, hätte man sie ausgelacht. Aber jetzt müssen sie nicht mehr alle Features in die iGPU reinquetschen. Warum jetzt gar kein DP und nicht 1/16 oder noch schlechter um es zumindest auf dem Papier zu haben weiß ich auch nicht.

danarcho
2019-02-06, 11:23:45
Nein, die können alle 1:4 (es gibt keine Beschränkungen, daß DP nur auf einer Hälfte der SIMDs ausgeführt werden könnte). Die leicht unterschiedliche Größe passiert halt bei einem automatisiertem Layout, was die verschiedenen Abstände zur Skalareinheit und dem LDS berücksichtigen muß und gleichzeitig noch irgendwie die Daten von den TMUs über die (minimal größere) SIMD2/3 zu SIMD0/1 leiten muß.

Da schaut man besser zu Hawaii (oder auch Vega20) für 1:2 DP.
Vermutlich hast du recht. Aber Hawaii ist auch nicht unbedingt der beste Vergleich, da sich die ISA zwischenzeitlich geändert hat. Vielleicht Bonaire gegen Hawaii, aber find das mal...
Ich denke btw, er meinte wie viel SP Mehrleistung verloren ginge, wenn man die Fläche so oder so nutzt.

Gipsel
2019-02-06, 11:33:33
1. Keine, wieso sollte das die SP-Performance beeinflussen?
Weil die zusätzliche Logik auch zusätzliche Gates in den kritischen Pfaden erfordert, womit die maximale Taktrate sinken kann (alternativ muß man mehr Transistoren mit niedrigerer Schwellspannung verbauen, was den Stromverbrauch erhöht). Zusätzlich steigen auch die Entfernungen minimal (Einheit wird etwas größer), was ebenfalls zu etwas mehr Stromverbrauch (oder geringerem Takt) führen kann (selbst wenn man DP nicht nutzt).
2. Auf ALU-Ebene ist es signifikant aber auf das Ganze bezogen sind es ein paar Prozent. Im Vergleich zur Fläche die Intel bereit ist wegzuwerfen für iGPUs die die meisten nicht brauen ist es lächerlich.1/16 ist praktisch fast umsonst, 1/4 mit sehr geringem Mehraufwand möglich, 1/2 erfordert schon deutlich mehr Aufwand bei den Multipliern, was aber, wie Du richtig sagst in der Gesamtschau nicht soo viel ist (zumindest wenn man Multiprecision ALUs verbaut und keine extra Einheiten).
3. Je nach Powergating im Idealfall keine. Die 1/4 statt 1/2 sind wahrscheinlich um nicht über die TDP zu kommen wenn man tatsächlich DP benutzt.So feingranular kann man Powergating normalerweise nicht durchführen (das kostet auch Fläche!), als daß man bei multiprecision-ALUs den DP-exklusiven Teil abklemmt. Das geht maximal bei separaten Einheiten (was aber ebenfalls Nachteile hat: Fläche, Verdrahtung, Latenz [Powergating geht nicht instantan, ein Shader kann nicht einfach mal so eine DP-Instruktion absetzen]).

Setsul
2019-02-06, 18:53:59
Intel hängt nicht wirklich am Takt, gerade bei GT2. Stromverbrauch schon eher. Bin mir auch nicht ganz sicher wie die Frage gemeint war.

Bei der dritten ist auch die Frage gehts hier um den Zusatzverbrauch durch das Vorhandensein von 1/2 DP (wobei Intel doch eigentlich 1/4 ist) oder dann wenn die Einheiten genutzt werden.

Kommt alles sehr darauf an wie es genau implementiert wird.

gmb
2019-02-06, 20:46:17
The company also moved away from hardware support for double-precision FP in favor of lower-overhead emulation. Similarly, it redesigned the SIMD-ALU interfaces for efficiency. Overall, the changes to the Gen11 EU reduced the area by about 25% (isoprocess) compared with Gen9—a considerable improvement, especially when coupled with the shrink to Intel’s 10nm process.


Hört sich gut an, ich bin mal auf die Größe gespannt.

MSABK
2019-02-06, 21:12:08
Kann man anhand der Daten bisher schon einschätzen wie sich die neue iGPU gegen eine Ryzen iGPU schlagen könnte?

reaperrr
2019-02-06, 22:08:34
Kann man anhand der Daten bisher schon einschätzen wie sich die neue iGPU gegen eine Ryzen iGPU schlagen könnte?
Selbst wenn Takt und IPC-pro-EU nicht nennenswert gestiegen sein sollten, allein schon die 2,67-fache Zahl an EUs bei der GT2-Stufe sollte eben auch bis zu 2,67-fache Performance bedeuten.
Das entspräche in vielen Spielen bereits ca. Vega8-Niveau (2200G).
Was auch nicht groß verwundert, weil 64 EUs effektiv 512 ALUs bedeutet, also genau soviele, wie beim 2200G aktiv sind. Also dieselbe theoretische FP32-Leistung bei voraussichtlich ähnlichem Takt.

Entscheidend wird also sein, wie sehr Intel das "Drumherum" verbessern konnte und ob man gute Lösungen fürs Bandbreitenlimit gefunden hat (DCC, Tiling usw.), dann könnte sogar 2400G-Performance drin sein, denn der liegt wegen des Bandbreitenlimits ja oft nicht weit vor dem 2200G.

gmb
2019-02-06, 22:32:31
Also in Notebooks wird vermutlich Intel vorne liegen, weil die angepeilte Rechenleistung von 1+ Tflop im ähnlichen Bereich liegt und Intel durch die Effizienzvorteile und der höheren Bandbreite durch LPDDR4x Vorteile mitbringt, die Leistung auf die Straße zu bringen. Die Rechenleistung ist ein theoretischer Wert bei den 15W Versionen und AMD lässt im low power Bereich traditionell viel liegen.

mczak
2019-02-06, 22:54:05
Entscheidend wird also sein, wie sehr Intel das "Drumherum" verbessern konnte und ob man gute Lösungen fürs Bandbreitenlimit gefunden hat (DCC, Tiling usw.), dann könnte sogar 2400G-Performance drin sein, denn der liegt wegen des Bandbreitenlimits ja oft nicht weit vor dem 2200G.
Irgendwie glaube ich nicht so recht daran dass intel da schon bessere Lösungen gefunden hat als AMD, das wäre doch ein ziemlich grosser Schritt. Gen 9 ist da ja auch nicht sonderlich gut.
Wobei eine "Lösung" hat intel schon gefunden: nicht nur kann die GPU (wie bisher auch) den LLC verwenden, aber 3MB L3 in der GPU sind schon eine ganze Menge. Das ist zwar eher ein brute-force Ansatz als sonderlich elegant bringt aber sicher was.
Gerade bei den Mobilchips ist sicherlich auch die Energieeffizienz ein Thema, keine Ahnung wie's da aussehen wird.

Locuza
2019-02-06, 23:17:16
Also bei Computerbase war unter 5 Spielen die Vega8/11 iGPU im Schnitt "gerade mal" Faktor 2.3-2.5 (2.9 für Vega11 gegenüber i5 8400 ohne Dota2) schneller gegenüber einer Gen9 GT2 Lösung.
https://www.computerbase.de/2018-02/ryzen-3-2200g-5-2400g-test-amd-raven-ridge/2/#diagramm-leistungsrating-integr-grafik

Gen11 hat ~2,7 mal soviel ALUs und für eine bessere Bandbreiteneffizienz gibt es einen 3MB großen L3$ (damals 768KB), einen 512KB großen Shared Local Memory (512KB), welcher nun ein separater Speicher ist und kein Teil vom L3$ mehr und einen Tiled Renderer.

Man müsste noch die Taktraten der iGPU kennen, aber ich würde ein ähnliches Level wie vom 2200/2400G erwarten.

mczak
2019-02-07, 00:51:48
Man kann auch direkt Gen 9 GT2 mit Vega 3 vergleichen, die sind tatsächlich ähnlich schnell, und haben auch gleich viele ALUs.
Nur eben, ob Gen 11 ähnlich gut (oder schlecht...) skaliert wie Vega ist eine ganz andere Frage. Bei so wenig ALUs wie Vega 3 / Gen9 GT2 ist auch die Bandbreite noch nicht so ein Problem (und wenn ich das richtig im Kopf habe leidet da Gen9 GT2 mehr mit Single-Channel Speicher, Vega 3 ist da nicht so übel).
Ich gehe aber am Ende auch von etwa Vega 8 Niveau aus das Gen 11 GT2 erreichen sollte. Ob es am Ende aber wirklich sogar etwas mehr wird (bei gleicher Speicherbestückung), da bin ich noch nicht überzeugt. Möglich wäre es schon - insbesondere die Unmengen Cache ist etwas das die AMD Chips so nicht haben (RR GPU hat 1 MB L2, Icelake demgegenüber 3MB L3 und zusätzlich noch Zugriff auf LLC). Aber da will ich zuerst Benchmarks sehen bevor ich das glaube :biggrin:.

Zossel
2019-02-07, 07:22:38
1/16 ist praktisch fast umsonst, 1/4 mit sehr geringem Mehraufwand möglich, 1/2 erfordert schon deutlich mehr Aufwand bei den Multipliern, was aber, wie Du richtig sagst in der Gesamtschau nicht soo viel ist (zumindest wenn man Multiprecision ALUs verbaut und keine extra Einheiten).

Ahh cool, thx. Also wäre alles unter 1/4 reine Produktpolitik.

BTW: Hast du ein Paper zu Hand wo sich halbwegs übersichtlich der grobe Aufbau einer modernen (Vector) FPU ersehen lässt? Dann könnte ich mir das in einer ruhigen Minute anschauen.

gmb
2019-02-08, 21:26:48
Irgendwie glaube ich nicht so recht daran dass intel da schon bessere Lösungen gefunden hat als AMD, das wäre doch ein ziemlich grosser Schritt.
Gerade bei den Mobilchips ist sicherlich auch die Energieeffizienz ein Thema, keine Ahnung wie's da aussehen wird.


Das spricht ja dann für Intel mit 10nm+. Die bessere Fertigung war mit ein Grund, weswegen Intel jahrelang AMDs auf dem Papier deutlich schnellere GPUs im lower power Bereich schlagen konnte. Jetzt ist es noch eindeutiger, weil AMD auf dem Papier keinen Vorteil mehr hat bei der Rechenleistung. Und GCN in der aktuellen Form ist auch nicht berauschend, das sieht man im Vergleich zu Nvidia immer wieder. Eine Verdopplung müsste schon reichen, um im Durchschnitt vor Vega 10 @15W zu liegen.

mczak
2019-02-08, 22:06:20
Das spricht ja dann für Intel mit 10nm+. Die bessere Fertigung war mit ein Grund, weswegen Intel jahrelang AMDs auf dem Papier deutlich schnellere GPUs im lower power Bereich schlagen konnte. Jetzt ist es noch eindeutiger, weil AMD auf dem Papier keinen Vorteil mehr hat bei der Rechenleistung. Und GCN in der aktuellen Form ist auch nicht berauschend, das sieht man im Vergleich zu Nvidia immer wieder. Eine Verdopplung müsste schon reichen, um im Durchschnitt vor Vega 10 @15W zu liegen.
AMD ist zwar weniger effizient als nvidia aber so wie ich das bisher einschätze ist die Effizienz der Architektur trotzdem besser als bei intel (genaue Vergleiche sind schwierig weil auch bei 14nm die Fertigung unterschiedlich ist und zudem intel bloss im Vega 3 Leistungsbereich etwas bietet). Gen 11 dürfte da durchaus besser sein, aber ob das reicht um Vega zu schlagen?
Wie gut intel's 10nm+ Prozess ist wird man sehen. Der ermöglicht natürlich erst dass intel die GPU derart deutlich aufbohren kann und der Chip trotzdem relativ klein bleibt, aber ob der ansonsten wirklich so viel besser ist als 14nm++ weiss ich nicht.
So wie ich das im Kopf habe hat intel aber AMD trotz Fertigungsvorteil (und der war riesig) vor Raven Ridge bei der GPU auch im low-power Bereich nicht wirklich schlagen können, es reichte etwa für ein Unentschieden.

robbitop
2019-02-08, 23:10:14
Zumal sich Intels Gen11 dann eher mit Renoir und somit Navi herumschlagen muss. Bis dahin ist RR 2 Jahre alter Kaffee... (Ende 19 / Anfang 20)

Setsul
2019-02-08, 23:42:46
Sehe ich ähnlich, Gen 11 GT2 wird je nach Skalierung bei Vega 8 oder so rauskommen, aber viel interessanter ist ob es eine GT3 oder sogar GT4 gibt und wie die sich schlagen gegen Renoir und low end dGPUs.

Man darf nicht vergessen, dass Intel von 3 auf 8 Subslices pro Slice geht und auch an anderen Stellen die gleichen oder sogar weniger Ressourcen auf mehr ALUs aufteilt.
Nur die Rohleistung zu erhöhen reicht nicht für perfekte Skalierung und selbst wenn man alles verdoppelt, dann verdoppeln sich die fps trotzdem nicht exakt (einfach mal bei dGPUs nachschauen). Wenn sie durch andere Verbesserungen auch nur in die Nähe der theoretischen 2,66 dann wäre das toll. 2,5 oder 2,4 wären keine Schande. Wenn GT2 dann ungefähr bei Vega 8 landet ist das relativ egal. Das wäre eine Slice, praktisch der Minimalausbau. Da will ich 2 oder 3 Slices sehen, das wäre interessant.

mczak
2019-02-09, 01:39:52
Naja Icelake könnte wohl noch vor Renoir erscheinen (aber nicht sehr viel).
Damit Gen11 GT3 sinnvoll ist braucht man aber sicher mindestens 28W CPU-Klasse, ausserdem braucht man dann auch wieder edram (oder irgend eine andere Form von schnellem Speicher).
Besonders populär waren die GT3e aber noch nie (ausser apple verkauft die ja kaum jemand), keine Ahnung ob sich das ändern wird (und ob intel das überhaupt anbieten wird). Rein von den Rohdaten her wäre so eine GT3e ja leistungsmässig schon vergleichbar mit Polaris 21 (RX 560), auch wenn dafür sicher eher 45W TDP Klasse nötig wäre. Auch wenn dann Navi der Konkurrent sein sollte wäre das sehr ordentlich...

robbitop
2019-02-09, 11:13:16
Zumal es wirklich die Frage ist, wie relevant 3D Leistung wirklich bei einer IGP ist. Der Markterfolg von Intel war trotz bis dato bescheidener IGPs immer glänzend. AMD hat es wenig gebracht, vergleichbar gute IGPs zu machen.

IGPs sind in der Regel für sustained 1080p60 mit hohen Details bei neusten AAA Games immer 1-2 Schritte zu langsam. Für sehr wenig mehr Geld gibt es idR schon bessere dGPUs (sowohl Mobil als auch Desktop).

Die Low Cost Version (man hat etwas zum Anzeigen moderner Videos und kann etwas alte Spiele spielen) reicht den meisten IGP Usern ja offenbar und scheinen den größten Marktanteil auszumachen.

Manchmal frage ich mich, wo bei den voll ausgefahrenen Versionen der Punkt des ganzen ist. Zu lahm für 1080p60 und zu teuer für einfach nur eine GPU.
Die GT4e waren von der Attitüde her der richtige Schritt zu 1080p60. Gabs dann aber in zu wenig mobilen Geräten und war dann auch IMO zu teuer ggü einer sogar besseren dGPU in einem vergleichbaren Gerät...

RR war da 2017 schon nett. Aber IMO fehlte da noch etwas Leistung, um diesen Schrott vollständig zu gehen.

Lehdro
2019-02-09, 11:47:06
Zumal es wirklich die Frage ist, wie relevant 3D Leistung wirklich bei einer IGP ist. Der Markterfolg von Intel war trotz bis dato bescheidener IGPs immer glänzend. AMD hat es wenig gebracht, vergleichbar gute IGPs zu machen.

Wenn man die Effizienz oder die reine CPU Performance ausblendet stellt sich die Frage. Macht man das aber nicht, dann ist die Frage sehr schnell beantwortet. Gottseidank ändert sich das mit Zen, bin gespannt was AMD da in 7nm zusammenbauen wird - erst das wird dann das Produkt sein an dem sich Intels neues IGP Projekt messen wird.

robbitop
2019-02-09, 11:53:44
Hast du schon Recht. RR gibt es erst seit 1,5 Jahren und es dauert leider sehr lange, bis die OEMs auch nach und nach alle vernünftige Lösungen im Markt anbieten und sich herumspricht, dass das gute Produkte sind.

Andererseits hatte Intel mit GT3e und GT4e auch schon recht gute IGPs. Verkaufen tun sich aber dennoch die kleinen GT2s mit Abstand am meisten.

Lehdro
2019-02-09, 12:33:50
Andererseits hatte Intel mit GT3e und GT4e auch schon recht gute IGPs. Verkaufen tun sich aber dennoch die kleinen GT2s mit Abstand am meisten.
Hast du ja auch schon erwähnt: Wenn der Preis nicht wäre. Ich denke das wird wohl auch der Knackpunkt bei Ice Lake, wenn Intel dort mit großen IGPs angreifen will - mit oder ohne EDRAM/HBM ist eine Grundsatzentscheidung die maßgeblich Performance und Preis beeinflusst. Jetzt, wenn AMD endlich "mitreden" kann, ist ein gutes Verhältnis dort umso wichtiger, was vorher halt komplett irrelevant war, da quasi 0 Konkurrenz vorhanden war. Und natürlich wie angesprochen: Die OEMs müssen mitspielen.

YfOrU
2019-02-09, 13:34:50
Naja Icelake könnte wohl noch vor Renoir erscheinen (aber nicht sehr viel).

Mit Blick auf die Markteinführung von Ryzen 3 zur Mitte des Jahres, Navi vermutlich im hinteren Teil von H2 und dem bei AMD inzwischen üblichen großen Abstand der APUs auf Basis der gleichen Architekturen erwarte ich hier eher 6 - 9 Monate Differenz zu Icelake-U. Praktisch steht bei AMD noch ein kompletter Refresh Produktzyklus an (14/12nm APUs).

mczak
2019-02-09, 19:23:43
Mit Blick auf die Markteinführung von Ryzen 3 zur Mitte des Jahres, Navi vermutlich im hinteren Teil von H2 und dem bei AMD inzwischen üblichen großen Abstand der APUs auf Basis der gleichen Architekturen erwarte ich hier eher 6 - 9 Monate Differenz zu Icelake-U. Praktisch steht bei AMD noch ein kompletter Refresh Produktzyklus an (14/12nm APUs).
Naja also bei Zen waren da 7 Monate zwischen Desktop und APU, und der Refresh der APUs ist ja auch schon quasi da. Davon ausgehend halte ich Renoir Anfang 2020 für realistisch. Icelake-U sollte Ende 2019 erscheinen - ich sehe da also nur etwa 3 Monate dazwischen.
Aber die Wahrscheinlichkeit dass es mehr wird ist durchaus da - intel hat ja eigentlich Icelake noch dieses Jahr versprochen, hingegen ist bei Renoir noch nichts klar (dass der vor 2020 kommt halte ich aber auch für quasi ausgeschlossen).

gmb
2019-02-09, 20:37:07
AMD ist zwar weniger effizient als nvidia aber so wie ich das bisher einschätze ist die Effizienz der Architektur trotzdem besser als bei intel (genaue Vergleiche sind schwierig weil auch bei 14nm die Fertigung unterschiedlich ist und zudem intel bloss im Vega 3 Leistungsbereich etwas bietet). Gen 11 dürfte da durchaus besser sein, aber ob das reicht um Vega zu schlagen?


Hast du die Gen11 schon live gesehen? Mit welchem Performance Zuwachs gegenüber der UHD 620 rechnest Du? Durchaus besser klingt nach minimaler Verbesserung :freak:


Zumal sich Intels Gen11 dann eher mit Renoir und somit Navi herumschlagen muss. Bis dahin ist RR 2 Jahre alter Kaffee... (Ende 19 / Anfang 20)


Es könnte noch bis mitte 2020 dauern, bis man eine 7nm APU von AMD wirklich kaufen kann. Ich rede jetzt nicht vom launch, sondern von kaufbaren Produkten. Und hier dauert es immer sehr lange bei AMD. Schau dir Picasso an, obwohl nur ein minimaler refresh auf 12nm und quasi unveränderte Architektur, ist die Verfügbarkeit 1 Monat nach launch in Witz. Und mitte 2020 kann man genauso sagen, ach muss sich mit Tigerlake und Gen12 rumschlagen.

mczak
2019-02-10, 04:26:57
Hast du die Gen11 schon live gesehen? Mit welchem Performance Zuwachs gegenüber der UHD 620 rechnest Du? Durchaus besser klingt nach minimaler Verbesserung :freak:

"Durchaus besser" bezog sich auf die Effizienz. Ohne Frage wird Gen11 GT2 insgesamt massiv schneller sein als Gen9 GT2. Man muss aber auch sehen dass (zumindest seit Kaby Lake) die Gen9 GT2 eigentlich klar zu klein designt ist - die kann auch bei bloss 15W (bei den Desktop-Chips ist es eh klar) quasi den Maximaltakt halten (in realen Spielen, nicht bei CPU+GPU Stresstest), was ein deutliches Anzeichen dafür ist (ist bei Vega 3 ähnlich). Das ist bei Ice Lake auf jeden Fall anders, der Unterschied von 24 auf 64 bei der Anzahl EU ist wirklich gross (klar wenn Cannonlake real wäre wären es 2 kleinere Schritte geworden). Auch die redesignten EUs sollten effizienter sein (sind ja auch 25% kleiner), was aber keinesfalls heisst dass die Leistung pro EU am Ende besser ist.


Es könnte noch bis mitte 2020 dauern, bis man eine 7nm APU von AMD wirklich kaufen kann.
IMHO wäre das wirklich enttäuschend wenn die 7nm APU erst Mitte 2020 kaufbar ist. Ich setze immer noch auf Q1/2020...

gmb
2019-02-10, 10:26:16
"Durchaus besser" bezog sich auf die Effizienz. Ohne Frage wird Gen11 GT2 insgesamt massiv schneller sein als Gen9 GT2.


Ok, von welchem Performance Zuwachs beim gaming gehst du aus? Also in der 15W Klasse zur UHD 620.


IMHO wäre das wirklich enttäuschend wenn die 7nm APU erst Mitte 2020 kaufbar ist. Ich setze immer noch auf Q1/2020...


War bei Raven Ridge doch schon so. Den launch haben die Ende Dezember reingedrückt, damit sie auf dem Papier 2017 stehen haben, so richtig verfügbar war das erst mitte 2018. 4 Monate nach launch waren gerade mal 4 Geräte kaufbar in Deutschland laut geizhals, mit so wenig Angebot kann AMD Intel nicht ärgern.

LadyWhirlwind
2019-02-10, 12:08:52
Ok, von welchem Performance Zuwachs beim gaming gehst du aus? Also in der 15W Klasse zur UHD 620.




War bei Raven Ridge doch schon so. Den launch haben die Ende Dezember reingedrückt, damit sie auf dem Papier 2017 stehen haben, so richtig verfügbar war das erst mitte 2018. 4 Monate nach launch waren gerade mal 4 Geräte kaufbar in Deutschland laut geizhals, mit so wenig Angebot kann AMD Intel nicht ärgern.

Das liegt aber auch daran, dass neue Modelle häufig zur Holiday Season kommen. Abgesehen davon haben die nicht auf AMD gewartet und eine neue Plattform bedeutet auch immer Aufwand.

Undertaker
2019-02-10, 13:02:59
IGPs sind in der Regel für sustained 1080p60 mit hohen Details bei neusten AAA Games immer 1-2 Schritte zu langsam. Für sehr wenig mehr Geld gibt es idR schon bessere dGPUs (sowohl Mobil als auch Desktop).


Den Anspruch, aktuelle Blockbuster in 1080p60 auf hohen Settings zu bewältigen, hat der Massenmarkt nicht unbedingt, schon gar nicht bei gewöhnlichen Multimedia-Notebooks/Ultrabooks. Die kommen oft genug nur mit Onboard-GT2 und sollen mal ein Sims 4, Diablo 3 oder Ähnliches darstellen. Und wenn es doch mal etwas Anspruchsvolleres ist, dann geht man halt auf 720p30 zurück. Mehr Leistung wird hier sicher sehr gern angenommen, aber kein 1080p60 gleich KO-Kriterium ist mir zu schwarz/weiß.

mczak
2019-02-10, 21:16:18
Ok, von welchem Performance Zuwachs beim gaming gehst du aus? Also in der 15W Klasse zur UHD 620.

Ein Faktor 2 sollte bei 15W imho auf jeden Fall drinliegen. Ich würde jetzt aber nicht auf die Genauigkeit dieser Schätzung wetten :biggrin:

gmb
2019-02-10, 21:52:56
Ein Faktor 2 sollte bei 15W imho auf jeden Fall drinliegen. Ich würde jetzt aber nicht auf die Genauigkeit dieser Schätzung wetten :biggrin:


Das wäre schneller als Raven Ridge bei 15W.

mczak
2019-02-11, 12:23:11
Das wäre schneller als Raven Ridge bei 15W.
Das sehe ich anders. Nicht kaputt konfigurierte RR Systeme (also kein Single Channel, Beschränkung auf 12w TDP und ähnlicher Unsinn) sind durchaus 2x so schnell wie die UHD 620 - je nach Benchmark etwas weniger, manchmal aber auch deutlich mehr. Wirklich saubere Vergleiche gibt's aber selten.

gmb
2019-02-11, 12:37:59
Das sehe ich anders. Nicht kaputt konfigurierte RR Systeme (also kein Single Channel, Beschränkung auf 12w TDP und ähnlicher Unsinn) sind durchaus 2x so schnell wie die UHD 620 - je nach Benchmark etwas weniger, manchmal aber auch deutlich mehr. Wirklich saubere Vergleiche gibt's aber selten.


Natürlich beziehe ich mich auf Dualchannel. Im Durchschnitt kommst du nicht auf einen Faktor 2. Such dir die besten 15W Geräte von Intel und AMD raus, das sind eher so 80%. Ich habe deswegen gefragt, weil ich schon vermutet hatte, dass du die Situation falsch einschätzt, genau das ist eingetroffen. Auch darfst du nicht vergessen, dass es auch mit 25W konfigurierte Geräte von Raven Ridge gibt. Damit wollte AMD zum launch glänzen, da wurden gerne mit 25W von AMD gegen 15W von Intel verglichen. Die späteren 15W Geräte konnten die Leistung nicht bestätigen.

mczak
2019-02-11, 14:19:55
Im Durchschnitt kommst du nicht auf einen Faktor 2. Such dir die besten 15W Geräte von Intel und AMD raus, das sind eher so 80%.
Kann sein dass du recht hast, aber ich sehe das etwas anders. Jedenfalls wenn du alles weglässt was einigermassen anspruchslos ist - da limitieren dann auch die CPU (vielleicht nicht direkt aber durch höheren Stromverbrauch) und noch mehr die Bandbreite als sonst. Bei höheren Settings (wenn also wirklich bloss die Grafik entscheidend ist) sehe ich durchaus einen Faktor 2. Aber die Zahlen dazu musst du zusammensuchen, das ist richtig, von daher ist es auch kaum möglich da einen vernünftigen Durchschnitt zu erwähnen.
Der Faktor 2 den ich genannt habe für Icelake GT2 gilt auch nur unter diesen Bedingungen.
Kann aber schon auch sein dass Icelake-U GT2 / 15W am Ende etwas schneller ist als RR Vega 8 (oder 10 das ist quasi egal) / 15W. Wobei ich bin hier noch auf die Picasso-Resultate gespannt, rein auf dem Papier hat sich ja bei den Taktfrequenzen nichts getan, könnte aber schon etwas effizienter und damit schneller sein.

HOT
2019-02-19, 19:29:58
Ohoh mit Gerüchten fängt es wieder mal an:
http://www.pcgameshardware.de/Matisse-Codename-268193/News/Intel-Konter-Ryzen-3000-14-nm-Comet-Lake-1275738/

Platos
2019-02-20, 00:19:15
Lol, wenn das stimmen würde, dann hat Intel im Desktop Segment ordentlich Probleme.

Stell man sich nur mal vor, es käme wieder 14nm und dann auch noch ein 10 Kerner. Wie soll das denn gehen mit dem Stromverbrauch, der schon der 8-Kerner hat. Wie stellt man sich das vor :D Und 10nm kommt dann im Desktop erst 2021... Wobei 2021/22 5nm von TSMC kommt.

Naja...Entweder ist das ein übler Fake oder Intel hat ein richtig fettes Problem, wenn das wirlich so kommt.

Zossel
2019-02-20, 07:37:47
Lol, wenn das stimmen würde, dann hat Intel im Desktop Segment ordentlich Probleme.

Intel wird sich im Moment, so gut es eben geht, auf Server-CPUs konzentrieren.

Zergra
2019-02-20, 09:06:24
Da wird die 10nm Fertigung noch große Probleme haben, auch wenn es nur die Stückzahlen sind.
10nm wird es wohl erst nur für den mobilen Bereich geben.
Am Ende ist das schon ziemlich peinlich, aber auch nach den ganzen Verschiebungen der letzten Jahre irgendwie kein Wunder...

HOT
2019-02-20, 09:44:52
Intel selbst hat ja immer sämtliche Terminangaben und Zeiträume für Produkte gemieden wir der Teufel das Weihwasser. Sicherlich wird man dieses Jahr noch ein 10nm-Produkt bringen, allein aus Prestigegründen und damit keiner sagen kann, es gäbe immer noch kein 10nm.
Aber die Wahrheit ist denke ich extrem ernüchternd.
Wenn ich an diese ganzen Fake-Roadmaps denke, die da dauernd in der Gegend rumgegeistert sind, mit 2 SP-Generationen in einerm Jahr, so ein vollkommener Blödsinn, dann muss man doch sagen, das Ganze entwickelt sich zu einer mittleren Katastrophe für Intel.

Realistisch, nach bisherigen Gerüchtestand, wäre mMn, wenn zur CES CometLake präsentiert wird mit 10 Kernen und dann aber erst 2.HJ 2021 (!) Tigerlake (Mit WillowCove), denn früher kommt der aufgrund seiner 10nm++ mit Sicherheit nicht. Dann wär Cometlake auch wieder 1 1/2 Jahre am Markt.
Schlimmer siehts mMn für die SPs aus. Denn wenn der Yield schon seit Jahren Probleme macht, dann sind SP-Prozessoren aufgrund ihrer Größe natürlich ganz besonders scheisse zu fertigen in 10nm.

Realistischerweise würde man grob von 1 1/2-Jahren-Zyklen für einen SP ausgehen, wie bisher eben auch (Skylake X wird etwas weniger als 2 Jahre am Markt sein, wenn Cascade-Lake kommt), was bedeuten würde, dass Cascade-Lake bis Ende 2020 bleibt und dann erst von Cooperlake ersetzt wird, welcher dann wiederum mindestens 1 Jahr bleiben dürfte, um dann in 2022 von Icelake SP abgelöst zu werden. Das ganze hat frappierende Ähnlichkeiten mit dem Broadwell-Launch. Damals kam Ende 2014 ein Broadwell Y als als zusätzliche Mobilvariante, das ist für Icelake diesmal wohl auch zu erwarten, 2. HJ 2015 kam dann Skylake und erst weit in 2016 hinein kam Broadwell E, also fast anderhalb Jahre nach Broadwell Y. Dass Icelake SP erst nach Tigerlake S startet ist somit nichts ungewöhnliches.

Man sollte sich da an realistische Zeiträume gewöhnen und diese ganzen Roadmaps die alles 2020 anzeigen einfach ganz schnell vergessen. Die bringen niemals mehrere Generationen pro Jahr, das ist BS.

Sollte sich das bewahrheiten sollte Intel unbedingt darüber nachzudenken, ob man die Fabs nicht doch auslagert bzw. abstößt, denn das wird ein Fass ohne Boden wenn das so weitergeht.

Lowkey
2019-02-20, 09:49:47
Intel überläßt AMD den Markt und bereitet die nächste Generation richtig vor. So mußte AMD auch 6 Jahre mit Bulldozer überleben und hat dann mit allen Mitteln Ryzen "erfunden". Wenn man AMD keine Konkurrenz bieten kann, dann wird AMD nicht gerade günstig werden. Schade, denn der Price-War bei den CPUs bleibt aus.

Wobei 7nm bei AMD nicht 7nm bei Intel wären. Intel könnte ja auch auf ein Rating setzen ;)

HOT
2019-02-20, 10:07:22
Ja aber wann soll der "richtige" Konter denn dann kommen? Wenn Tigerlake in 10++ im 2. HJ 2021 kommen sollte, was ich jetzt mal annehme, dann käme der 7nm Prozessor mit GoldenCove wohl kaum vor 2023, frühestens Ende 22 - bis dahin wollen TSMC und Samsung längst 3GAAF auf dem Markt haben. Das kann so nicht funktionieren.

Zudem würde Intel als Marktführer AMD niemals das Feld überlassen. Tut man ja auch nicht, man bringt ja neue Produkte, jetzt reaktiviert man sogar offenbar den L4$ vom Broadwell um schneller zu werden. Nur mit der Fertigung klappts halt nicht.
AMD hat keine Probleme mit der Fertigung gehabt ab 2013, Produkte gab es dennoch nicht. Das ist also überhaupt nicht vergleichbar. Zudem stehen hinter Intel ganz andere Mittel. AMD hatte zur Krisenzeit weder Personal noch Kapital um damit CPU-Generationen zu entwickeln.

Zossel
2019-02-20, 20:26:27
Da wird die 10nm Fertigung noch große Probleme haben, auch wenn es nur die Stückzahlen sind.
10nm wird es wohl erst nur für den mobilen Bereich geben.
Am Ende ist das schon ziemlich peinlich, aber auch nach den ganzen Verschiebungen der letzten Jahre irgendwie kein Wunder...

Intel hat seine Verkäufe auch schon mal ohne bessere Technik angeschoben.

Lowkey
2019-02-20, 20:52:19
Intel überläßt AMD indirekt den Markt unter 350 Euro komplett. Ein paar Preisanpassungen kann man Ende 2018 bei den 2066 Prozessoren sehen, aber das ist nicht viel.

Als ob Intel einen Preiskampf nicht für nötig hält.

Leonidas
2019-02-21, 08:43:12
Intel hat das grundsätzliche Problem, das sie auf so hohen Profiten sitzen, das es möglicherweise günstiger ist, weniger Stückzahlen zu verkaufen, dafür aber die Preise nicht senken zu müssen. Denn gesenkte Preise werden Intels Stückzahlen nicht maßgeblich erhöhen (von 85% ausgehend noch höher wird schwierig), die Preissenkung senkt dann allerdings Umsatz wie Gewinne gleichermaßen. Weniger Stückzahlen zu gleichen Preisen zu verkaufen kann sich u.U. viel weniger dramatisch auswirken.

Relic
2019-02-21, 10:47:40
Intel hat das grundsätzliche Problem, das sie auf so hohen Profiten sitzen, das es möglicherweise günstiger ist, weniger Stückzahlen zu verkaufen, dafür aber die Preise nicht senken zu müssen. Denn gesenkte Preise werden Intels Stückzahlen nicht maßgeblich erhöhen (von 85% ausgehend noch höher wird schwierig), die Preissenkung senkt dann allerdings Umsatz wie Gewinne gleichermaßen. Weniger Stückzahlen zu gleichen Preisen zu verkaufen kann sich u.U. viel weniger dramatisch auswirken.

Solang sie ihre Fertigung 100% ausgelastet haben machen Preissenkungen für Intel natürlich keinen Sinn.

Aber ihre hohe Fixkosten durch die eigene Fabs und das riesen R&D Team bleiben bestehen, auch wenn sie niedrigere Stückzahlen verkaufen. Und wenn die Stückzahlen sinken, sinken dadurch auch die hohen Margen.

Das ist im Moment noch nicht das Problem, aber sollte AMD ihnen ernsthaft größere Marktanteile abnehmen und Intel bekommt (wieder erwarten ^^) ihre 10nm Fertigung (und damit zusätzliche Kapazitäten) in nächster Zeit zum Laufen ist der Weg von "wir können nicht genug produzieren" zu "wir können unsere Fabs nicht auslasten" nicht weit.

Ohne eigene Fabs würde ich dir sogar zustimmen, dann würden beim Auftragsfertiger einfach weniger Stückzahlen bestellt. Das würde sich zwar auch negativ auf den Einkaufspreis und damit auf die Marge auswirken, aber nicht in dem Umfang, wie bei einer eigenen Fertigung.

genervt
2019-02-21, 13:04:09
...
Wenn ich an diese ganzen Fake-Roadmaps denke, die da dauernd in der Gegend rumgegeistert sind, mit 2 SP-Generationen in einerm Jahr, so ein vollkommener Blödsinn, dann muss man doch sagen, das Ganze entwickelt sich zu einer mittleren Katastrophe für Intel.
...

Die mittlere Katastrophe ist doch längst eingetreten. Der Fertigungsvorsprung ist verspielt. Wenn man es über Jahre nicht hinbekommt einen Prozess serienreif zu bekommen, hat man es auch nicht anders verdient. Ich verstehe nicht, warum Intel nicht viel früher einen weniger aggressiven Shrink zumindest als Zwischenlösung entwickelt hat. Man hat zu lange an den Zielvorgaben für 10nm festgehalten. Und der 10nm, der jetzt kommt, ist auch nur eine Ersatzlösung wie man hört. Krzanich musste zurecht gehen - aus meiner Sicht sogar viel zu spät.

Immerhin spielt es AMD voll in die Hände, 2019 wird spannend bei den CPUs:freak:

reaperrr
2019-02-21, 14:18:17
Da wird die 10nm Fertigung noch große Probleme haben, auch wenn es nur die Stückzahlen sind.
10nm wird es wohl erst nur für den mobilen Bereich geben.
Am Ende ist das schon ziemlich peinlich, aber auch nach den ganzen Verschiebungen der letzten Jahre irgendwie kein Wunder...
Es deutet vieles darauf hin, dass Intel aus mehreren Gründen - den ganzen Verzögerungen, aber auch Yield- und Performance-Problemen von 10nm, sowie nach letzten Infos dafür relativ reibungslos laufenden und damit evtl. schon für 2021 bereiten 7nm - weniger Fabriken als ursprünglich mal geplant auf 10nm umstellt.

Und da 10nm+ in Sachen "Performance" - bezogen auf Prozesse bedeutet das für gewöhnlich "maximal erreichbare Taktraten bei gleicher Transistorzahl und TDP" - selbst laut Intels eigenen Folien kaum besser als 14nm++ ausfällt, wäre ein Ice-Lake mit mehr als 10C wohl dafür taktmäßig unter Comet Lake gelandet, weshalb es sich nicht lohnt, einen Performance-ICL im Desktop zu bringen.

Am meisten bringt 10nm/Ice Lake im
- Mobil-Bereich, weil die 64EU-Gen11-GT2 IGP hier eine Grafikperformance auf oder wegen der TDP-Beschränkungen gar über AMD-Vega8-Niveau ermöglichen dürfte, was anders als im Desktop gerade für OEMs ein schlagkräftiges Argument ist
- Server-Bereich, weil man hier, anders als im Desktop, mit etwas niedrigerem Takt/Spannung bei dafür aber deutlich mehr Kernen noch eine gewisse Konkurrenzfähigkeit bei Perf/W erkaufen kann, was im Desktop so nicht so einfach ginge. Und das ist wichtig, um nicht zu viele Marktanteile im lukrativen Server-Markt zu verlieren.

Deshalb macht es Sinn, sich für 10nm auf Mobile-ICL und Server-ICL zu konzentrieren und die eingesparten Mittel und Fab-Kapazitäten für eine frühere, schnellere Umstellung auf 7nm Tiger Lake offen zu halten, wo Desktop dann sicherlich wieder eine höhere Priorität bekommt.

HOT
2019-02-21, 14:41:57
Die Server kommen eh wieder Jahre später, siehe Broadwell. Wie gesagt, Cascade Lake Mitte das Jahres, Cooperlake Ende nächsten Jahres und danach erst Icelake SP, also frühestens Ende 2021, eher 22. Alles andere an Erwartungen halte ich da einfach für unrealistisch.

Wie es mobil wird wird spannend. Für halbwegs klar halte ich schonmal, dass Coffeelake H von Cometlake H ersetzt werden wird.
Bei U wird es recht sicher Cometlake (wo 9550U usw. ja schon aufgetaucht sind), und ich wette, auch Y wird nicht Icelake.
-> https://www.heise.de/newsticker/meldung/Intel-Comet-Lake-Spekulationen-um-Prozessoren-fuer-2019-4232771.html

Also zusammengefasst:

Server
2019 -> Cascadelake
2020 -> Cooperlake
2022 -> Icelake SP

Desktop
2019 -> CFL R
2020 -> Cometlake S
2021 -> Tigerlake S

Mobil (U)
2019 -> Cometlake U
2020 -> Icelake U
2021 -> Tigerlake U

Mobil (Y)
2019 -> Cometlake Y
2020 -> Icelake Y
2021 -> Tigerlake Y

HPVD
2019-02-21, 14:49:31
Die Server kommen eh wieder Jahre später, siehe Broadwell. Wie gesagt, Cascade Lake Mitte das Jahres, Cooperlake Ende nächsten Jahres und danach erst Icelake SP, also frühestens Ende 2021, eher 22. Alles andere an Erwartungen halte ich da einfach für unrealistisch.

jein - Cooperlake scheint der eingeschobenen Notnagel zu sein (falls icelake komplett explodiert...). Icelake kommt später als cooperlake aber nicht wie üblich erst danach. Aktuelles Zieldatum scheint für cooperlake 4/2019 bzw 1/2020 und für Icelake 3/2020 zu sein. s. https://www.computerbase.de/2018-07/intel-ice-lake-sp-cpu-xeon-2020/

HOT
2019-02-21, 15:08:29
Halte ich für wirklich nun völligen Blödsinn. Die bringen keine 2 SP-Lineups auf den Markt, das wäre Wahnsinn. Die haben Cooperlake so laut rausposaunt, das ist ein komplettes Lineup nach Cascade. Die haben nur alles bei 2020 reingeschrieben, was natürlich himmelschreiender Unsinn ist. Wenn man den Prozess aufgrund seiner Yields nicht hinbekommt produziert man damit natürlich als letztes die dicken SP-Dies. Siehe Broadwell.

i.Ü. kann man in der Roadmap, die ja auch alt ist, mal getrost Cascade um ein halbes Jahr nach rechts verschieben und damit alle nachfolgenden auch.
Danach kam ja auch noch die Roadmap, die Cooperlake 2019 und Icelake 2020 nennt, was ja auch Unsinn ist. Ich halte das alles für puren Aktionismus um die Aktionäre bei der Stange zu halten.

reaperrr
2019-02-21, 15:20:08
Die Server kommen eh wieder Jahre später, siehe Broadwell. Wie gesagt, Cascade Lake Mitte das Jahres, Cooperlake Ende nächsten Jahres und danach erst Icelake SP, also frühestens Ende 2021, eher 22. Alles andere an Erwartungen halte ich da einfach für unrealistisch.
Wie HPVD im Grunde schon geschrieben hat:
Cooperlake-AP ist kein Nachfolger von Cascade, sondern ein Parallel-Produkt (2 Cascades auf einem Package), der wegen 12-channel eine neue (und verdammt teure) Plattform braucht.
Zumindest ICL-SP sollte nicht viel später erscheinen als Cooper-AP, außer die 10nm-Yields bleiben zu lange schlecht. Das ist aber unabhängig von Cooper.

Außerdem sind durch die 10nm-Verzögerungen die Designs wahrscheinlich schon länger fertig und warten im Grunde nur darauf, dass die Yield-Kurve den gewünschten Punkt erreicht. Da der Konkurrenzdruck durch Zen2 deutlich zunehmen wird und Server-CPUs gute Margen haben, macht es für Intel anders als noch bei Broadwell-SP und Skylake-SP durchaus Sinn, ICL-SP so schnell wie nur möglich zu bringen, selbst wenn die Ausbeute zunächst noch relativ schlecht sein sollte.

HPVD
2019-02-21, 15:26:37
Halte ich für wirklich nun völligen Blödsinn. ...

i.Ü. kann man in der Roadmap, die ja auch alt ist, ...

vielleicht, vielleicht aber auch nicht....

Sunny Cove core Xeons (was ja die Icelake Xeons sein sollten)
wurden auch später immer wieder für 2020 benannt...

s. z.B. zusammengefasst hier: https://www.nextplatform.com/2018/12/16/intel-unfolds-roadmaps-for-future-cpus-and-gpus/

HOT
2019-02-21, 15:36:12
Eine schöne Theorie ist das, aber völlig blödsinnig in meinen Augen. Wie stellt ihr euch das vor? Ach ja, machen wir mal 3 SP-Dies in 14nm und nochmal 3 in 10, weil das so billig ist oder was?
Man macht keine 2 SP-Generationen parallel als "Notnagel", das wäre wirtschaftlicher wahnsinn und ist einfach total unrealistisch. Jede SP-Generation bleibt mindestens 1 Jahr am Markt - Leute, die müssen daran verdienen !

Und außerdem, ganz nebenbei, wenn man keine U packt in 2019, wie es aussieht, dann machen die nicht direkt danach nen SP :freak:. Ich schaffs nicht, auf den Baum zu klettern - ach ja, dann probier ichs halt mit dem Eiffelturm ;D.

gmb
2019-02-21, 16:29:00
https://www.reddit.com/r/thinkpad/comments/astmup/official_2019_refresh_specs_release_dates_and/

X1 Yoga G7 mit Icelake-->Juni
X1 Carbon G7 mit Icelake-->August


Läuft wohl auf ein Computex launch raus für ICL-U.

Loeschzwerg
2019-02-21, 16:37:37
Sunny Cove core Xeons (was ja die Icelake Xeons sein sollten)
wurden auch später immer wieder für 2020 benannt...

s. z.B. zusammengefasst hier: https://www.nextplatform.com/2018/12/16/intel-unfolds-roadmaps-for-future-cpus-and-gpus/

Das passt auch immer noch so Pi*Daumen. CSL-SP rollt jetzt im April aus, Q3/Q4'19 ist CPL-SP ca. in der QS Phase mit Launch vermutlich im Frühjahr '20. ICL-SP kann sich dann jeder zusammenreimen.

Rampage 2
2019-02-22, 02:49:32
https://www.reddit.com/r/thinkpad/comments/astmup/official_2019_refresh_specs_release_dates_and/

X1 Yoga G7 mit Icelake-->Juni
X1 Carbon G7 mit Icelake-->August

Läuft wohl auf ein Computex launch raus für ICL-U.

Ich glaube, du hast dich verguckt - der X1 Carbon G7 ist ebenfalls für Juni 2019 geplant;)

Da bei einem neuen Intel-Fertigungsprozess die Mobile-Abkömmlinge bis jetzt immer VOR den Desktop-Modellen auf den Markt kamen, dann ist Q4/2019 tatsächlich ein realistischer Zeitpunkt für den Launch von ICL-S :)

Soviel zu der "News", dass ICL komplett gestrichen und Comet Lake gar erst 2020 erscheinen soll... das ist doch einfach absurd:rolleyes:

R2

rentex
2019-02-22, 07:23:54
[QUOTE=HOT;11933121]Eine schöne Theorie ist das, aber völlig blödsinnig in meinen Augen. Wie stellt ihr euch das vor? Ach ja, machen wir mal 3 SP-Dies in 14nm und nochmal 3 in 10, weil das so billig ist oder was?
Man macht keine 2 SP-Generationen parallel als "Notnagel", das wäre wirtschaftlicher wahnsinn und ist einfach total unrealistisch. Jede SP-Generation bleibt mindestens 1 Jahr am Markt - Leute, die müssen daran verdienen !

Sehe ich genau so. Schnell, wird und kann Intel nichts über das Knie brechen.
Wie war das nochmal mit der "Wette auf die Zukunft" ?!

w0mbat
2019-02-22, 10:09:43
Soviel zu der "News", dass ICL komplett gestrichen und Comet Lake gar erst 2020 erscheinen soll... das ist doch einfach absurd:rolleyes:

R2
Aktueller Stand ist doch, dass ICL mit der neuen Sunny Cove Architektur in 2019 auf dem Markt aufschlägt. Wie und wann wissen wir noch nicht so genau.

1. Sind die release Daten zu den Notebooks auch nur ein Gerücht und nicht offiziell.
2. Kann man vom ICL-U release nicht direkt auf ICL-S schließen, Intel hat schon seit einer Weile kleine 10nm mobile Chips am Markt.

Trotzdem wäre ICL-S in 2019 auf jeden Fall wünschenswert, wir brauchen einen Konkurrent für Zen2 und bitte nicht erst ein Jahr später. Ich will nicht dass AMD die Preise zu sehr heben kann :biggrin:

Loeschzwerg
2019-02-22, 10:22:53
Ich will nicht dass AMD die Preise zu sehr heben kann

Ich schon

Screemer
2019-02-22, 10:38:07
Intel hat schon seit einer Weile kleine 10nm mobile Chips am Markt.

die mehrzahl ist da doch unangebracht oder hat sich da was geändert?

MSABK
2019-02-22, 11:48:44
Verwechsle ich was oder wurde das Lenovo X1 Carbon G7 nicht dchon mit einem Whiskey Lake U vorgestellt? Soll Mitte dieses Jahres kommen.

https://www.google.de/amp/s/www.computerbase.de/2019-01/lenovo-thinkpad-x1-carbon-g7/%3famp=1

gmb
2019-02-22, 16:04:21
Ich glaube, du hast dich verguckt - der X1 Carbon G7 ist ebenfalls für Juni 2019 geplant;)

Da bei einem neuen Intel-Fertigungsprozess die Mobile-Abkömmlinge bis jetzt immer VOR den Desktop-Modellen auf den Markt kamen, dann ist Q4/2019 tatsächlich ein realistischer Zeitpunkt für den Launch von ICL-S :)

Soviel zu der "News", dass ICL komplett gestrichen und Comet Lake gar erst 2020 erscheinen soll... das ist doch einfach absurd:rolleyes:

R2



Ok tatsächlich, dann also beide im Juni. Auf der CES hat Dell übrigens auch schon ein neues XPS mit Icelake für mitte des Jahres angekündigt gehabt. Das läuft auf die Computex raus. Icelake für Desktop soll gestrichen sein, für mobile natürlich nicht.

Loeschzwerg
2019-02-22, 16:25:37
Wobei die geleakte NUC-Roadmap zumindest auch auf CML-U hindeuten würde:
https://nucblog.net/2018/12/2019-2020-nuc-roadmap-leaked/

Sollte das also ebenfalls stimmen, würde Intel bei den Mobiles zweigleisig fahren.

Da wir gerade bei ICL sind... angeblicher Gen11 Perf Leak:
https://www.reddit.com/r/hardware/comments/atap0r/intel_gen_11_gt2_gpu_performance_benchmarks/ (orig. Quelle)
http://www.pcgameshardware.de/Ice-Lake-Codename-267358/News/Gen-11-Grafik-doppelt-so-schnell-wie-aktuelle-GT2-1276005/ (PCGH News dazu)

Rampage 2
2019-02-22, 18:48:06
Icelake für Desktop soll gestrichen sein, für mobile natürlich nicht.

Woraus schließt du darauf!? Doch jetzt bestimmt nicht wegen einer einzigen unbestätigten News-Meldung!? (die mMn völlig an den Haaren vorbei gezogen ist...)

R2

gmb
2019-02-22, 19:45:25
Wobei die geleakte NUC-Roadmap zumindest auch auf CML-U hindeuten würde:
https://nucblog.net/2018/12/2019-2020-nuc-roadmap-leaked/

Sollte das also ebenfalls stimmen, würde Intel bei den Mobiles zweigleisig fahren.



Ist doch nichts neues, CML-U stand schon vor Ewigkeiten in der Roadmap, aber in der 25/28W Spalte platziert, wohingegen ICL-U in der 15W Spalte platziert ist.



Da wir gerade bei ICL sind... angeblicher Gen11 Perf Leak:
https://www.reddit.com/r/hardware/comments/atap0r/intel_gen_11_gt2_gpu_performance_benchmarks/ (orig. Quelle)
http://www.pcgameshardware.de/Ice-Lake-Codename-267358/News/Gen-11-Grafik-doppelt-so-schnell-wie-aktuelle-GT2-1276005/ (PCGH News dazu)


Habe ich gestern schon gesehen. Die CPU ID wird noch mit 0000 ausgegeben und taktet auch nur mit 1.3 Ghz, von daher nicht sehr aussagekräftig für die finale Leistung. Das wird erst interessant, wenn die CPU ID einen richtigen Namen trägt.


Woraus schließt du darauf!? Doch jetzt bestimmt nicht wegen einer einzigen unbestätigten News-Meldung!? (die mMn völlig an den Haaren vorbei gezogen ist...)

R2


Ich habe keine Bewertung abgegeben, nur dass die sich die Berichte um den desktop gedreht haben.

Loeschzwerg
2019-02-22, 20:15:02
Ist doch nichts neues,

Wenn man alles in den Topf wirft sehe ich es eigentlich fast als Bestätigung für die aktuellen Gerüchte. ICL sehen wir dieses Jahr ganz sicher, aber wie du schon schreibst, ausschließlich in der 15W TDP Region.
Für mehr reicht die Kapazität offenbar für längere Zeit nicht aus, ein 25W TDP NUC (oder Laptop) mit ICL wäre schon nicht ganz uninteressant.


von daher nicht sehr aussagekräftig für die finale Leistung.

Das freilich nicht, aber die Tendenz finde ich durchaus überzeugend, sofern die Werte stimmen.

So oder so, ich freue mich auf ICL und gerade Gen11. Mein Lifebook S will/muss ich immer noch ersetzen.

gmb
2019-02-24, 11:28:42
Ja sicher, Intel wird für mobile weiter zweigleisig fahren mit 10nm und 14nm parallel, schon deswegen weil die Kapazität für ein komplettes 10nm lineup nicht ausreicht. Übrigens kommt CometLake-U auch als 6+2 Variante und deswegen 28W. Auch CML-S 10C kommt wirklich.

=Floi=
2019-02-24, 11:41:34
wie sieht es denn im consumer bereich mal mit 4 channel ram aus? das würde einen netten boost bringen. Man könnte es ja den teuren chipsätzen vorenthalten

Relic
2019-02-24, 12:38:25
wie sieht es denn im consumer bereich mal mit 4 channel ram aus? das würde einen netten boost bringen. Man könnte es ja den teuren chipsätzen vorenthalten

Welche Consumer Anwendungen sind bandbreitenlimitiert, wo dies etwas bringen könnte?

reaperrr
2019-02-24, 16:09:04
wie sieht es denn im consumer bereich mal mit 4 channel ram aus? das würde einen netten boost bringen. Man könnte es ja den teuren chipsätzen vorenthalten
Bringt zu wenig Performance, um die höheren Board- und Chipkosten zu rechtfertigen. In der Fläche eines 128bit-SI kannst du ordentlich L3 und/oder zusätzliche Kerne usw. unterbringen, was in der Mehrzahl der Anwendungen mehr bringt.

Sowohl Intel als auch AMD sind seit Jahrzehnten im Mainstream-Consumer-Bereich nicht über Dual-Channel hinausgegangen (außer auf den Enthusiasten-Plattformen), aus o.g. Grund.
Die werden jetzt, wo eh DDR5 vor der Tür steht, nicht plötzlich damit anfangen.

HOT
2019-02-25, 08:28:26
Icelake wird einfach die GT3-Variante sein. Der könnte mMn Coffeelake mit GT3e beerben, während Cometlake alle normalen Varianten beerben dürfte.

deekey777
2019-02-25, 09:23:13
...

Da wir gerade bei ICL sind... angeblicher Gen11 Perf Leak:
https://www.reddit.com/r/hardware/comments/atap0r/intel_gen_11_gt2_gpu_performance_benchmarks/ (orig. Quelle)
http://www.pcgameshardware.de/Ice-Lake-Codename-267358/News/Gen-11-Grafik-doppelt-so-schnell-wie-aktuelle-GT2-1276005/ (PCGH News dazu)
Laut OpenCL-Info hat das Ding 64 CUs (CL_DEVICE_MAX_COMPUTE_UNITS) und damit 64 EUEs.
Ich habe längst den Überblick verloren, aber hiess es nicht, dass jetzt in 40er Schritten gehen soll?

Zergra
2019-02-25, 09:34:10
Welche Consumer Anwendungen sind bandbreitenlimitiert, wo dies etwas bringen könnte?

Eben, die Latenzen werden auch schlechter. Ryzen profitiert ja zb. sehr stark von Latenzen. Für Spiele wäre das eher ein Nachteil.

Locuza
2019-02-25, 10:37:49
Laut OpenCL-Info hat das Ding 64 CUs (CL_DEVICE_MAX_COMPUTE_UNITS) und damit 64 EUEs.
Ich habe längst den Überblick verloren, aber hiess es nicht, dass jetzt in 40er Schritten gehen soll?
Die GT2-Lösung bei Gen9 (Skylake) hat einen Slice verwendet und drei Sub-Slices mit jeweils 8 EUs.
https://legitreviews.com/wp-content/uploads/2015/08/skylake-slice.jpg


Bei Gen 11 dagegen ist die GT2-Lösung aus 4 Slices aufgebaut, mit jeweils 2 Sub-Slices, die nach wie vor jeweils 8 EUs beherbergen.
Also 4 x (2x8) = 64 EUs:
https://images.anandtech.com/doci/13699/Graphics%20%285%29_575px.jpg

Es gibt eine GT1-Lösung mit 48 EUs, wenn Intel flexibel bei der Skalierung ist, dann könnten sie entweder drei Slices mit jeweils zwei Sub-Slices verwenden oder zwei Slices mit jeweils drei Sub-Slices.

Eine GT0.5-Lösung wird mit 8 EUs ausgegeben, ein Slice und ein Sub-Slice müsste es dann sein.

gmb
2019-02-25, 12:04:04
Genau, und das ist schon ewig bekannt: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11654886&postcount=56


Wie schonmal gesagt könnte man sich auch gut vorstellen, dass Intel zum ersten mal eine richtige Abstufung zwischen i7/i5/i3 vornimmt, falls die Ausbeute an voll funktionsfähigen GT2 bei 10nm noch nicht ausreicht. Übrigens wird Intel am 20. März die Gen11 genauer vorstellen.


The next generation of Intel processor graphics codenamed Gen11 has now officially been announced and is scheduled for release later this year! This update brings a significant compute, geometry and throughput improvements over todays widely used Gen9 graphics.

This talk will provide a detailed tour of the hardware architecture behind Intel’s latest Gen GPUs - unveiling the structure behind its building blocks and their performance implications. Special consideration will be taken to explain how graphics engineers can best exploit the new Gen11 architecture. We will then take an in-depth look at the powerful new features being introduced this year, such as Coarse Pixel Shading (CPS) and more!
https://schedule.gdconf.com/session/the-architecture-of-intel-processor-graphics-gen11-presented-by-intel/864304

Blediator16
2019-03-05, 17:58:17
Intel "sagt":

Intel has figured out their problem with 10nm and they are now ahead of where the expected to be. 3D stacking will not only be memory - also include #GPU.

https://twitter.com/HPC_Guru/status/1102957416197500928

Dann dürfte es dieses Jahr noch Desktop CPUs geben, wenn alles so gut läuft.

gmb
2019-03-07, 21:27:02
Nein nur mobile. Höchstens CML-S 10C dieses Jahr noch für Desktop.

Leonidas
2019-03-08, 05:02:55
Genau das befürchte ich auch. Ist doch auch verdächtig ruhig an dieser Front. Wo sind die Ice Lake ES mit 8C und mehr?

gmb
2019-03-09, 12:35:50
Intel schiebt doch nicht ohne Grund Comet Lake-S 10C ein, deswegen springt Intel auf Tigerlake-S. Ab einen gewissen Zeitpunkt macht Icelake-S kein Sinn mehr, wenn man gleich auf Tigerlake gehen kann.

fondness
2019-03-10, 12:38:53
10nm dürfte noch bei weitem nicht die Performancecharakteristik vom todoptimierten 14nm++++++ (:D) Prozess erreichen. Deshalb macht am Desktop ein 10C in 14nm mehr Sinn, ansonsten müsste man wohl zu weit mit dem Takt hinunter. Für mobile kann man hingegen natürlich die bessere Perf/Watt mitnehmen. 10nm Desktop damit wohl erst H2/2020. Ich bin eh ziemlich gespannt wie der 10nm Prozess von Intel nun final aussieht, also ob man die ursprünglichen Ziele auch nur annähernd erreichen konnte.

gmb
2019-03-10, 16:23:27
Die Kapazitäten sind ja auch das Problem, ICL-U kommt nur mit 4 Kerne. Ich bin eh mal gespannt, wie Intel das mit der GPU unterbringen will. Tigerlake-S als CML-S 10C Nachfolger müsste Minimum 10C mitbringen, wahrscheinlich sogar 12C Minimum. Zusätzlich mit einer GT2 und 64 EUs, womöglich sogar 80+ EUs bei Tigerlake für eine GT2, wäre das nicht unerheblich. Vielleicht gehen sie auf eine GT1 für die größeren Desktop Versionen oder streichen die komplett.

reaperrr
2019-03-10, 17:13:32
Die Kapazitäten sind ja auch das Problem, ICL-U kommt nur mit 4 Kerne. Ich bin eh mal gespannt, wie Intel das mit der GPU unterbringen will. Tigerlake-S als CML-S 10C Nachfolger müsste Minimum 10C mitbringen, wahrscheinlich sogar 12C Minimum. Zusätzlich mit einer GT2 und 64 EUs, womöglich sogar 80+ EUs bei Tigerlake für eine GT2, wäre das nicht unerheblich. Vielleicht gehen sie auf eine GT1 für die größeren Desktop Versionen oder streichen die komplett.
Da sehe ich weniger das Problem.
Die ICL-GT2 wird kaum größer als die SKL-GT2 sein, und die Kerne nur noch ca. halb so groß.

Tiger Lake ist schon 7nm, da wird der Flächenbedarf je Kern und je EU nochmal grob halbiert.
Also 16C und 80-96 EUs sollten in 7nm in vertretbarer Fläche unterzubringen sein, da sich in 7nm ca. das vierfache der SKL-Einheiten in der gleichen Fläche unterbringen lassen sollte.

gmb
2019-03-10, 19:41:06
Tigerlake ist 10nm++

Linmoum
2019-03-11, 13:27:29
Although Intel has announced its 10nm Ice Lake will begin mass production in the second half of 2019, Digitimes Research's sources from the upstream supply chain has revealed that there are still many issues with the CPU giant's mass production schedule for 10nm process.

Intel previously said that its new 14nm Comet Lake would have a performance not worse than Ice Lake. Digitimes Research believes Intel could shift its investments directly to 7nm process development, skipping 10nm.
https://www.digitimes.com/news/a20190308VL202.html

rentex
2019-03-11, 13:38:07
https://www.digitimes.com/news/a20190308VL202.html

Irgendwie war das absehbar...

HOT
2019-03-11, 14:15:31
Ist alles offen.

10nm++ ohne EUV
10nm++ mit EUV als Zwischenschritt
7nm mit EUV als 14nm-Nachfolger

Fest steht eben nur, dass 14nm bis 2021 hinein bleiben wird in Desktop und Server.

Es war eben einfach ein riesiger Fehler EUV so stiefmütterlich zu behandeln, das zeigt sich bei der 10nm-Misere. Während Samsung und TSMC schon in Massenproduktion gehen ist das bei Intel immernoch in Forschung.

10nm wird man vor allem für mobil machen und da vor allem für die hochpreisigeren Produkte mMn. Intel hat eben offenbar einige Fabs zurückgerüstet auf 14nm, die Produktionsengpässe sollen Mitte des Jahres behoben sein. Die restlichen Fabs bleiben 10nm und werden sicherlich Icelake U produzieren.

gmb
2019-03-12, 01:18:28
https://www.digitimes.com/news/a20190308VL202.html


Digitimes Research believes


Dann kann man digitimes nicht mehr ernst nehmen :freak:

Freyberger
2019-03-12, 02:00:50
Nicht ernst nehmen kann man die Aussagen von Intel zum 10nm Prozess.
Und das seit 2015!

Nightspider
2019-03-12, 02:02:01
Intel kann ja auch von TSMC produzieren lassen. :ulol:

Dorn
2019-03-12, 07:06:33
Auf jeden Fall spare ich somit Geld, werde mir zu 100% mein 6700K nicht durch ein veraltetes Verfahren ersetzten. Ansonsten wechsel ich zu AMD wenn die 3xxx Generation eine klasse Spiele Performances hat.

rentex
2019-03-12, 07:49:56
Auf jeden Fall spare ich somit Geld, werde mir zu 100% mein 6700K nicht durch ein veraltetes Verfahren ersetzten. Ansonsten wechsel ich zu AMD wenn die 3xxx Generation eine klasse Spiele Performances hat.

Wäre genau meine Vorgehensweise. Im Grunde geh ich davon aus, das dies auch so eintreten wird...sofern die Performance passt.

][immy
2019-03-12, 08:51:58
Also, irgendwie läufts bei Intel grad überhaupt nicht rund

https://www.golem.de/news/prozessoren-intels-14-nm-knappheit-trifft-core-i3-i5-1903-139924.html#comments

14nm ist bei denen Knapp, daher rüsten sie jetzt die 10nm Fabriken wieder zurück auf 14nm.
Intel scheint mit seinem 10nm Prozess wirklich auf ein großes Problem gestoßen zu sein. Der Rückschritt auf 14nm dürfte wohl bedeuten, das sie wohl keine großen Sprünge mehr machen werden in den nächsten 2 Jahren. So gesehen kann AMD jetzt erst mal zusehen, das sie Marktanteile holen mit der externen 7nm Produktion. So einen Vorsprung wird AMD wohl so schnell nicht mehr bekommen.

Es könnte natürlich passieren, das Intel plötzlich extern produziert, das wäre aber ein ziemlicher Umbruch für Intel.

Zergra
2019-03-12, 12:29:54
Wird ja immer schlimmer bei Intel.

Extern werden die bestimmt nicht so schnell produzieren, dafür sind die Fabriken einfach viel zu teuer.

rentex
2019-03-12, 14:26:44
Intel wird sicher nicht extern produzieren lassen....

HOT
2019-03-12, 15:01:29
Dafür wäre eine Teilung des Unternehmens nötig oder ein Verkauf der Chipfertigung. Für Intel wär das vielleicht sogar ne gute Chance, aber ich fürchte, das will keiner haben. Ist eben toll, eine eigene Fertigung zu haben, solange man im Vorteil ist - denn da kommen die Milliarden ja her. Intel muss halt keinen Fertiger bezahlen. Aber es ist eben schlecht, wenn man im Nachteil ist und sehr sehr sehr schlecht, wenn man nachhaltig im Nachteil ist.

ndrs
2019-03-12, 17:01:17
Intel hat schonmal aus Kapazitätsgründen auswärts fertigen lassen. Das wäre nichts neues. Um die Top-End-Produkte ging es dabei jedoch nicht.
Intel SoFIA: Neuer SoC mit Fertigung bei TSMC in 28 nm (https://www.computerbase.de/2015-03/intels-sofia-socs-kommen-von-tsmc-in-28-nm/)

Intel soll Atom-Chips bei der TSMC fertigen lassen (https://www.golem.de/news/14-nm-knappheit-intel-soll-atom-chips-bei-der-tsmc-fertigen-lassen-1810-137442.html)

MSABK
2019-03-12, 19:19:08
Hmm, das wird dann wohl alles länger dauern mit einer neuen Generation. Das wird bei Apple die ARM-Entwicklung wahrscheinlich noch mehr anfeuern. Microsoft ist ja schon voll drinnen.

Platos
2019-03-12, 21:46:26
Wo ist Microsoft da drinnen ? Das ist ja nicht wirklich Windows für ARM sondern eher Emulator für ARM mit Windows.

MSABK
2019-03-12, 22:19:50
Naja, Windows wird immerhin nicht emuliert. Soweit können ja auch nur 32 bit Programme emuliert werden, muss ich mal Googlen warum keine 64 bit Programme gehen.

BlackBirdSR
2019-03-13, 01:17:59
Ich denke mal, das hat Lizenztechnische Gründe...
X86 emulieren darf wohl jeder.
Da gibt es auch nicht so viele Programme, welche die ganzen ISA extensions nutzen.

Mit AMD64 und dem Ersatz von x87 durch SSE2, wird es wohl nicht besser bezüglich Performance.

gmb
2019-03-21, 15:52:51
Intel®Processor Graphics Gen11Architecture
https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf


https://abload.de/img/gen11nckhv.png

gmb
2019-03-21, 21:54:26
Gen11 branding:

Iris Plus Graphics 950
Iris Plus Graphics 940
Iris Plus Graphics 930
UHD Graphics 920
UHD Graphics 910

Nightspider
2019-03-24, 02:05:01
Viel interessanter wird für Viele doch der IPC Sprung. Ob wir nur noch 5% Sprünge sehen werden oder ob Intel mal wieder einen größeren Sprung schafft.

Apple hat es ja auch geschafft Jahr für Jahr nachzulegen.
Hieß es nicht zuletzt sogar mal das die IPC bei Apple mittlerweile höher sei als bei Intel?

Auch hier im Forum wurde ja jahrelang geprädigt das wir an einem imaginären Limit wären und die IPC nicht mehr weit steigen wird.
Aber wer entscheidet wo die Grenze liegt. Ich bezweifle irgendwie noch das wir in weiteren 5-10 Jahren nur 10-20% IPC generieren können.

Vielleicht helfen ja künstliche Intelligenzen künftig bessere Architekturen zu designen. Bei Intel hat man die letzten Jahre ja nichtmal was Neues ausprobiert, man hat sich nur ausgeruht beim Design.

robbitop
2019-03-24, 07:10:14
Ich erwarte bei Sunny Cove aus genannten Gründen keine großen IPC Sprünge. 10...15%. Wenn der Takt nicht weiter steigt ist das Endergebnis in Spielen nicht fühlbar schneller als ein 9900K mit jahre alter mArch und Jahre altem Produktionsprozess.
So ist die Situation nunmal. Takt und ST IPC sind so ziemlich in der Sackgasse. Nicht ganz am Ende. Aber man wird dort mittelfristig keinen Faktor 2 mehr oder ähnliches sehen, woraus dann bei Spielen großartig Innovation kommen könnte. Ggf könnte 3D stacking mit großem schnellen (sehr geringe Latenz) Cache noch einmal 10...20% on top bringen.

Aber um echte Schritte weiter zu kommen in Spielen, muss weiter parallelisiert werden und oder FF Units genutzt werden oder asynchrones Compute genutzt werden (zB Physikberechnung über breite Vektoreinheiten - viel mehr Partikel und Zerstörung - Strömungssimulation in Echtzeit - alles Sachen, die Spielen wirklich nochmal etwas mehr bringen könnten). Dazu muss es sinnvolle mArch geben, die schnellen, kohärenten Speicherzugriff fürdiese Einheiten erlauben ohne lahme Flaschenhälse. Und es muss entsprechend von der SW Seite genutzt werden und idealerweise einen Industriestandard dafür geben, damit nicht jeder sein eigenes Süppchen kocht.

danarcho
2019-03-24, 10:35:56
Aber wer entscheidet wo die Grenze liegt. Ich bezweifle irgendwie noch das wir in weiteren 5-10 Jahren nur 10-20% IPC generieren können.
Das muss man nicht entscheiden, das kann man einfach simulieren. Zunächst entscheidet das Programm wie viel IPC möglich ist, dadurch dass nur begrenzt ILP vorhanden ist. Und dann kann man einfach die Ausführung mit perfekten caches und unendlich Ausführungseinheiten simulieren und sehen wie groß der Abstand zu heutigen CPUs ist. Und je nach Programm kommt da dann natürlich nochmal ein gehöriger Sprung raus, der dann aber ins Verhältnis zu exponentiell steigendem Flächenverbrauch gesetzt werden muss. Und dann ist auch klar, warum es nur noch in Trippel-Schritten weitergeht. Wenns dich interessiert: Stichwort wäre "Limits of Instruction-Level-Parallelism".

Setsul
2019-03-24, 16:35:51
Naja ganz so einfach ist es nicht.
Wenn man mit unendlichen Ressourcen keine Steigerung erreichen kann ist es unmöglich, aber die Umkehrung funktioniert nicht. Bloß weil mit unbegrenzten Ressourcen eine Steigerung möglich ist, heißt das nicht, dass sie generell möglich ist.

Egal wieviel theoretisch noch möglich ist, Fläche und Stromverbrauch sind ungefähr proportional und der Verbrauch begrenzt den Takt. Wenn sich der Flächenverbrauch stärker erhöht als die Leistung gewinnt man unterm Strich nichts mehr. Das ist toll wenn ich mit unendlicher Fläche 10x rausholen kann, aber das bringt nichts. Wenn man mit doppelter Fläche nur noch 1,5x Leistung erreicht dann wars das.

danarcho
2019-03-24, 17:19:29
Wenn man so einfach mit doppelter Fläche die 1.5fache Leistung erreichen würde, dann würden sowohl Intel als auch AMD das sofort umsetzen. An diesem Punkt sind wir aber schon sehr lange vorbei. Das war so im goldenen Zeitalter als jeder PC nach 2 Jahren eine alte Gurke war und ersetzt werden musste. Im Moment würde ich eher darauf tippen, dass das vielleicht noch 10% (also 1.1x) bringt. Ich denke, es ist klar, dass 'unendlich viele Ausführungseinheiten' ein eher theoretisches Limit darstellen und das praktische wohl etwas früher einsetzt. Aber nichts anderes habe ich geschrieben?

reaperrr
2019-03-24, 17:23:48
Ich erwarte bei Sunny Cove aus genannten Gründen keine großen IPC Sprünge. 10...15%.
Wenn du bezogen auf den Durchschnitt meinst, wäre alles ab ~11-12% aufwärts immerhin der größte Sprung seit Sandy Bridge, der rund 15% ggü. Nehalem brachte.

Gerade Spiele könnten allein schon von dem verdoppelten L2 ordentlich profitieren.

Setsul
2019-03-24, 17:58:30
@danarcho:
Bezweifle ich. Für Server und Mobile wäre es wenig sinnvoll und ein 200W Quad Core ist auch nur begrenzt sinnvoll. Nicht völlig nutzlos, aber Nischenprodukt und bei einer Architektur für alles nicht mehr wirklich praktikabel. Doppelte Fläche für 10% ist noch etwas zu pessimistisch wenn man sich Haswell/Broadwell/Skylake anschaut. Aber die genauen Zahlen sind auch uninteressant.

Der Punkt ist dass vorhandene ILP weder Fortschritt garantiert, noch fehlende ILP Fortschritt ausschließt. Selbst Trippel-Schritte sind unmöglich wenn 10% mehr Leistung die 10-fache Fläche brauchen. Selbst wenn alles an ILP schon perfekt ausgenutzt wird, könnte man immernoch alle paar Jahre 5% Takt rausprügeln.

ChaosTM
2019-03-24, 18:20:05
ARM ist ganz klar die Zukunft. In praktisch allen Bereichen wo heute x64 regiert..
Man muss sich nur zb. anschauen wie fluffig das neue große Apple Brett läuft.
MS braucht für seinen Surfaces dramatisch teurere CPUs um eine ähnliche Leistung zu erzielen.
(Nicht ganz vergleichbar, Ich weiß)

x64 wird nur noch durch die Software(in)kompatibilität am Leben erhalten.
Mein nächster (High End) PC, in 5-7 Jahren, wird ziemlich sicher schon ARM befeuert sein

Loeschzwerg
2019-03-24, 18:28:45
ARM ist ganz klar die Zukunft.

Könnte auch RISC-V werden ;)

Es wird sicher in die Richtung spezialisierter Chips gehen, welche dann ebenfalls auf dem Träger sitzen, aber x86 abschreiben würde ich so schnell noch nicht.

ChaosTM
2019-03-24, 18:32:08
Irgendwas neues eben, das weniger Altlasten mitschleppen muss.

Wie schnell das von statten gehen wird hängt natürlich stark davon ab, ob Apples Next Gen wirklich schon 100% ARM ist

Loeschzwerg
2019-03-24, 18:36:48
Apple ist doch völlig egal, das ist ein geschlossenes Ökosystem. Mit Power war es damals doch nicht anders. Treiber werden hier eher die anderen Größen wie Google, Amazon und MS.

ChaosTM
2019-03-24, 18:41:47
Was Apple macht muss richtig sein. So ist zumindest die Wahrnehmung von vielen.

Das Zeichen wäre gesetzt.

Google und Amazon nehmen das was für sie am billigsten ist. Goggle baut nebenbei auch schon ihre eigenen Tensor Karten .. NV ist da praktisch schon draußen.
INTEL/AMD könnten die nächsten sein.

amdfanuwe
2019-03-24, 18:45:48
Mein nächster (High End) PC, in 5-7 Jahren, wird ziemlich sicher schon ARM befeuert sein
Hab ich beim Acorn Archimedes auch schon gedacht. Das war vor 30 Jahren.

Loeschzwerg
2019-03-24, 18:46:34
Was Apple macht ist für Apple richtig, mehr auch nicht.

ChaosTM
2019-03-24, 18:48:31
Hab ich beim Acorn Archimedes auch schon gedacht. Das war vor 30 Jahren.


Guter Einwand. :)

Intel wird sicher nicht kampflos aufgeben.

danarcho
2019-03-24, 19:00:17
@danarcho:
Bezweifle ich. Für Server und Mobile wäre es wenig sinnvoll und ein 200W Quad Core ist auch nur begrenzt sinnvoll. Nicht völlig nutzlos, aber Nischenprodukt und bei einer Architektur für alles nicht mehr wirklich praktikabel. Doppelte Fläche für 10% ist noch etwas zu pessimistisch wenn man sich Haswell/Broadwell/Skylake anschaut. Aber die genauen Zahlen sind auch uninteressant.

Der Punkt ist dass vorhandene ILP weder Fortschritt garantiert, noch fehlende ILP Fortschritt ausschließt. Selbst Trippel-Schritte sind unmöglich wenn 10% mehr Leistung die 10-fache Fläche brauchen. Selbst wenn alles an ILP schon perfekt ausgenutzt wird, könnte man immernoch alle paar Jahre 5% Takt rausprügeln.
Beachte, dass wir über IPC geredet haben, nicht über Performance oder Takt.
Vergleich einfach mal die Core-Größen der verschiedenen ARM-Implementierungen, dann wirst du sehen, was realistisch ist.
Du vergisst außerdem die kleiner werdenden Fertigungsgrößen. Ein Pentium I wäre in 7nm wahrscheinlich kaum noch sichtbar. Daher sind doppelte Fläche für 10% IPC auch nicht so schlimm. single thread schlägt halt immer noch alles.

Loeschzwerg
2019-03-24, 19:01:38
AMD sicher auch nicht ;) Ein wirklicher Kampf oder eine großartige Umstellung wird das für beide aber eh nicht, das Know-How ist längst vorhanden. Wichtiger ist die Softwarelandschaft und da ist es so wie Torvalds erst kürzlich gesagt hat.

amdfanuwe
2019-03-24, 19:16:24
Intel wird sicher nicht kampflos aufgeben.
Hat Intel nichts mit zu tun. Die Software hält die Hardware am leben.
Sieht man ja auch am Geschrei um die Windows 7 Abschaltung.
Und solange X86 entsprechende Performance bietet, gibt es keinen Grund für andere Architekturen die vorhandene Software neu zu erstellen.

=Floi=
2019-03-24, 19:41:21
Wenn man so einfach mit doppelter Fläche die 1.5fache Leistung erreichen würde, dann würden sowohl Intel als auch AMD das sofort umsetzen.

ich sehe da schon noch potential. intel hat auch die kosten und die perf. pro watt im auge. bei intel ging man massiv in den mobilen bereich.
Intel wollte auch kleinere dice, weil man dadurch auch die marge erhöht. Es gibt und gab noch so viele stellschrauben. Schau dir den aggresiven turbo an. auf einmal geht hier auch was.

Die ersten 15% holt man schon alleine durch meltdown und spectre. Intel zeigte auch schon die zukünftigen verbesserungen.

Setsul
2019-03-24, 19:52:54
@ChaosTM:
Dafür muss es erstmal ARM PCs zu kaufen geben.
Sieht momentan schlecht aus.
Außer Apple hängen die meisten sehr an x86, weil ihre Software sonst nicht mehr läuft. Also selbst wenn kann das von dem Zeitpunkt zu dem es dann tatsächlich ARM Desktop CPUs zu kaufen gibt bis zu tatsächlich nutzbaren noch eine Weile dauern. Ich meine du könntest auch jetzt etwas mit ARM drin zusammenkleben, aber es wäre nicht sehr nützlich. Also wie gesagt, selbst wenn sind 5 Jahre bei Weitem nicht garantiert.

@danarcho:
Wir haben doch beide "Leistung" geschrieben. Damit habe ich auch Leistung gemeint und nicht Leistung pro Takt.
Völlig getrennte Betrachtung von IPC und Takt ist nicht sinnvoll, 1 MHz CPUs mit 10 IPC sind keine Alternative.

Wie gesagt, schau dir die letzten Jahre bei Intel an. 10% bei Verdoppelung sind etwas zu pessimistisch.
Und nein, single thread schlägt nicht immer alles. Wenn man durch Stromverbrauch und Fläche begrenzt ist, dann sind dem Grenzen gesetzt. Single statt Dual Core mit 10% mehr Leistung pro Kern für Mobile und 16 statt 32 Kerne für Server werden keine Verkaufsschlager. Oder stell dir vor der 9350K bräuchte doppelt soviel wie der 8350K für das bisschen mehr Takt. Kann man vielleicht einmal machen, aber was macht man dann im nächsten Jahr? 400W für 4 Kerne?

Zossel
2019-03-24, 20:51:14
"IPC" wird letztendlich durch die Software begrenzt die auf der CPU läuft, wenn die Software nicht genügend Parallelität hergibt hilft es nicht wenn die HW mehr ausführen kann.

"Breitere" HW lässt sich zusätzlich nicht so gut takten. das ist auch zu beachten wenn man die "IPC" von "niedrig" getakteten Handy-SOC betrachtet.

danarcho
2019-03-24, 21:48:41
@Zossel: sag ich ja, der ILP der jeweiligen Anwendung bregrenzt die mögliche IPC nach oben.
@Setsul: get your facts straight: seit 2000 hat sich die Anzahl an Transistoren ca. verhundertfacht. Die Performance aber höchstens mal verzehnfacht.
Natürlich ist die Theorie das eine und die Praxis weicht gerne mal nach oben oder unten ab, siehe Bulldozer und andere Fails. Der Trend ist aber klar. Die ursprüngliche Frage bezog sich auf das mögliche Limit der IPC, und wer das festlegt, und hier muss man einfach sagen, dass wir keine großen Sprünge mehr zu erwarten brauchen. Das meiste machen wahrscheinlich cache optimierungen aus.
Quelle:
https://www.karlrupp.net/2015/06/40-years-of-microprocessor-trend-data/

Setsul
2019-03-25, 00:10:29
Welche "facts" denn?
10% pro Verdoppelung stimmen nicht, dann wären wir mit 100x Transistoren nicht einmal bei 1,9x Performance. Ich bin mir sicher dass es seit 2000 mehr als das waren.

Mir fehlt einfach der Zusammenhang der Begründung.
Mit unendlichen Ressourcen war 2000 Luft nach oben und ist auch 2020 noch Luft nach oben.

Man weiß dass ein 512 entry ROB mehr kostet als ein 128 entry ROB, aber wieviel? Auch branch predictor und misprediction penalty sind schwierig. Das wird in solchen Simulationen gerne einfach festgesetzt, aber wieviele Pipeline Stages braucht man wirklich um das ganze zu implementieren?

Ich widerspreche ja nicht, dass es schwierig ist, aber Nightspider hat schon recht dass es kein hartes Limit gibt, das uns sagt dass wir in den nächsten 10 Jahren nur noch 10% IPC rausholen können weil es nicht mehr gibt.

Man kann eben nicht ein paar Daten in den Simulator stecken und dann sehen "klarer Fall, ab 2015 kanns nicht mehr als 7,3% pro Jahr geben".
Es gibt absolut genügend Möglichkeiten die IPC zu erhöhen, die nur momentan nicht sinnvoll sind weil sie die Effizienz senken und/oder die Performance insgesamt. Das sagen einem die Simulationen eben nicht.


Es gibt außerdem immer die Möglichkeit, dass irgendjemand eine fürchterlich schlaue Idee hat, die nochmal einen kleinen Sprung auslöst, anstatt eben immer mehr kleinen Optimierungen die hier 0,5% und da 0,7% rausholen. Und gerade wenn man die nächsten 10 Jahre anschaut sind durchaus noch Durchbrüche bei der Fertigung möglich. CMOS ist etwas ausgelutscht, aber was auch immer 2029 verfügbar ist erlaubt eventuell wieder etwas großzügigeren Umgang mit Transistoren.

Nightspider
2019-03-25, 00:44:06
[QUOTE=danarcho;11956915
@Setsul: get your facts straight: seit 2000 hat sich die Anzahl an Transistoren ca. verhundertfacht. Die Performance aber höchstens mal verzehnfacht.[/QUOTE]

Welche Performance?
Pro CPU Leistung?
Pro Kern Leistung?
IPC?

Erstere kanns ja auf keinen Fall sein was du meinst. ProKern Leistung? Damals waren wir wo? Bei knapp über 1Ghz? Könnte ganz grob hinkommen aber dann darfst du die Transistoren für die restlichen 3 bis ~31 CPU-Kerne nicht mitzählen. ;)

Zossel
2019-03-25, 06:32:05
Man weiß dass ein 512 entry ROB mehr kostet als ein 128 entry ROB, aber wieviel? Auch branch predictor und misprediction penalty sind schwierig. Das wird in solchen Simulationen gerne einfach festgesetzt, aber wieviele Pipeline Stages braucht man wirklich um das ganze zu implementieren?

Wenn die Software nicht genügend Parallelität hat verbraucht ein größerer ROB mehr elektrische Leistung und begrenzt den möglichen Takt ohne entsprechenden Nutzen.

Autovergleich: Mehr Hubraum bedeutet mehr Gewicht und mehr Verbrauch. Und der Wirkungsgrad von Verbrennern ist nach wie vor unterirdisch.

CMOS ist etwas ausgelutscht, aber was auch immer 2029 verfügbar ist erlaubt eventuell wieder etwas großzügigeren Umgang mit Transistoren.

Außer GAA sehe ich Moment da nix, mal sehen vielleicht mal irgendwann was mit Kohlenstoff. Der Planet muss dann aber auch noch die Ressourcen haben wenn es soweit sein sollte.

robbitop
2019-03-25, 07:06:25
Wenn du bezogen auf den Durchschnitt meinst, wäre alles ab ~11-12% aufwärts immerhin der größte Sprung seit Sandy Bridge, der rund 15% ggü. Nehalem brachte.

Gerade Spiele könnten allein schon von dem verdoppelten L2 ordentlich profitieren.

Ob der Einfluss des L2 so groß ist? SKL-X hatte sogar 1 MiB L2 (also 4x). Die Memorylatency wog wesentlich schwerer in Spielen.

Leonidas
2019-03-25, 07:36:19
ber um echte Schritte weiter zu kommen in Spielen, muss weiter parallelisiert werden und oder FF Units genutzt werden oder asynchrones Compute genutzt werden (zB Physikberechnung über breite Vektoreinheiten - viel mehr Partikel und Zerstörung - Strömungssimulation in Echtzeit - alles Sachen, die Spielen wirklich nochmal etwas mehr bringen könnten). Dazu muss es sinnvolle mArch geben, die schnellen, kohärenten Speicherzugriff fürdiese Einheiten erlauben ohne lahme Flaschenhälse. Und es muss entsprechend von der SW Seite genutzt werden und idealerweise einen Industriestandard dafür geben, damit nicht jeder sein eigenes Süppchen kocht.


Ist vielleicht Thema von Intels echter NextGen-Architektur. Da könnte man in diese Richtung hin denken - denn genügend Office-Performance haben wir inzwischen sicherlich.




ARM ist ganz klar die Zukunft. In praktisch allen Bereichen wo heute x64 regiert..
Man muss sich nur zb. anschauen wie fluffig das neue große Apple Brett läuft.
MS braucht für seinen Surfaces dramatisch teurere CPUs um eine ähnliche Leistung zu erzielen.


Könnte das nicht eher an der SSD hängen? Ich habe SSDs schon echte Alt-Prozessoren beschleunigen sehen, da hat es den Benutzer aus den Latschen gekippt.

Loeschzwerg
2019-03-25, 07:43:58
Für normales Office reicht auch ein aktueller Gemini Lake und wohin die Reise (zumindest bei Intel) letztendlich gehen könnte sieht man mglw. an Foveros bzw. Lakefield.

Kriton
2019-03-25, 09:53:44
Hab ich beim Acorn Archimedes auch schon gedacht. Das war vor 30 Jahren.

War der Archimedes nicht RISC?

Loeschzwerg
2019-03-25, 10:04:41
:confused: "ARM" sind RISC.

Mr.Magic
2019-03-25, 10:18:11
Die ARM* CPU im ersten Archimedes war sogar schon Gen2 der Architektur.

*Acorn RISC Machine bzw. Advanced RISC Machine

Kriton
2019-03-25, 10:27:36
:confused: "ARM" sind RISC.

Verdammt, mit so einer Antwort hatte ich fast gerechnet. Aber mangels Beschäftigung mit ARM hatte ich das nie in Verbindung gebracht. Danke für die Info.

robbitop
2019-03-25, 10:59:59
IIRC ist das Instruction Set heutzutage nicht mehr so relevant. Es läuft eh alles durch decoder und mWn hat x86 einen auf heutige Kerngrößen bezogen zu vernachläßigen Mehrverbrauch als ARM.

Es ist eher die Auslegung auf den Betriebspunkt. Die ARM SoCs sind so sparsam weil sie für mobile Geräte konzipiert sind - also für einen Betriebspunkt von deutlich weniger als 10W. Ich sage mal grob 1-10W. Sinnvolle Skalierung funktioniert idR nur über ~1 Größenordnung.

AMDs und Intels CPUs sind eher für 10-100W ausgelegt. Die absolute Performance werden ARMs mit obiger Auslegung im gleichen Fertigungsprozess nie ganz erreichen. Sind dafür aber sparsamer.

Gerade ST Performance hat einen nicht linearen Zusammenhang mit Leistungsaufnahme.

Man schaue sich mal Perf/W angefangen von einem ARM A7/35 über A53/55 über A57/72/73/75/76 an.
Leistung steigt zwar signifikant aber Leistungsaufnahme steigt wesentlich stärker als die Leistung. Noch krasser wird es wohl, wenn man so etwas wie Intels Quark oder die M Serie der ARMs einbezieht.

Perf/W ist bei niedriger Performance als Auslegungsziel also besser.

Man sollte das im Hinterkopf behalten und nicht vermuten, dass es ein linearer Zusammenhang ist und Apple und ARM alles überrennen wird.

The right tool for the right job. Das ist immer das beste. FF Units für Spezialtasks sind besser als GP Units (Raytracing, Inferencing, Texturfilterung etcpp). Auslegung für den richtigen Betriebspunkt ist besser als einfache Skalierung etc.

Dennoch muss man anerkennen, dass Apple verdammt gut ist. Anand macht ja zuletzt zusätzlich zu den Synthie-Benchmarks auch noch den jeweiligen Energieverbrauch (in joules iirc). Da machen die Apple ARMs die anderen uArchs ziemlich nackig.
Apple hat aber auch dort investiert und hat vertikale Integration wie kein anderer.

Mangel76
2019-03-25, 11:08:24
ARM ist ganz klar die Zukunft. In praktisch allen Bereichen wo heute x64 regiert..
Man muss sich nur zb. anschauen wie fluffig das neue große Apple Brett läuft.
MS braucht für seinen Surfaces dramatisch teurere CPUs um eine ähnliche Leistung zu erzielen.
(Nicht ganz vergleichbar, Ich weiß)


Was installiert ist und was man wirklich braucht sind aber sehr unterschiedliche Dinge. Ich habe ein Surface Pro mit m3-CPU. Das läuft auch super flüssig, solange ich nur im Internet surfe oder kleinere Office-Sachen mache. Da bremsen dann eher die 4GB RAM. Auch unter Windows braucht man keinen 6-Kerner um solche Dinge zu machen. Aber auf dem Apple Brett wird auch kaum jemand größere Dinge (aufwendige Simulationen oder Datenanalysen) machen, oder? Erst wenn solche Dinge vernünftig auf ARM laufen wird echte Konkurrenz aufkommen können.

robbitop
2019-03-25, 11:15:15
Apple hat nach meiner Erfahrung den ganzen Energiesparkram besser im Griff, da SW und HW in einer Hand liegen.
Auf meinem XPS13 komme ich in der Praxis (habe ich als Arbeitsnotebook) nicht annähernd auf die Laufzeiten von einem vergleichbaren Macbook oder einem iPad Pro mit vergleichbarem Akku.

Irgendwelche Prozesse im Hintergrund, Browsertabs etc sorgen immer mal wieder dafür, dass auf der CPU oder dem RAM oder der SSD immer mal wieder was passiert und diese aus den tiefen Powerstates aufwachen. Gerade bei iOS ist das ja massiv besser (aber auf Kosten der Usability von Multitasking). Bei MacOS hatte ich schon immer den Eindruck, dass Apple da mehr Eingriff hat und die Ergebnisse besser sind. (sie schreiben ja auch das OS und die SDKs für sämtliche Applikationen)

YfOrU
2019-03-25, 12:11:39
Das XPS 13 FHD (52WH) hält auch in der Praxis länger durch als das MBP 13 (2560x1600, 56WH). Nimmt man beim XPS 13 dagegen das UHD Panel fällt die Akkulaufzeit entsprechend niedriger aus. Die Auswirkung vom Panel und dessen Auflösung auf die erreichbare Laufzeit wird oft deutlich unterschätzt: https://www.notebookcheck.com/Test-Dell-XPS-13-9380-i7-8565U-4K-UHD-Laptop.410509.0.html#toc-energieverwaltung

Beim XPS 13 sind es bei ansonsten identischer Ausstattung (i5, 8/256GB) um die 5 Stunden Differenz (+ 2-3 Watt). Das war auch bei den Vorgängern schon so und für mich damals der Grund die FHD Variante zu nehmen.

danarcho
2019-03-25, 12:29:39
Welche "facts" denn?
10% pro Verdoppelung stimmen nicht, dann wären wir mit 100x Transistoren nicht einmal bei 1,9x Performance. Ich bin mir sicher dass es seit 2000 mehr als das waren.
Mein Fehler. Die 10% beziehen sich aber auch auf den aktuellen Zustand, nicht von vor 10 Jahren. Wenn du die Grafik in meiner Quelle mal anschaust, siehst du doch ohne Weiteres, dass die Sprünge immer kleiner wurden, das ist doch wirklich kein Geheimnis.

Mir fehlt einfach der Zusammenhang der Begründung.
Mit unendlichen Ressourcen war 2000 Luft nach oben und ist auch 2020 noch Luft nach oben.
Die Luft wird halt immer dünner. Natürlich wird man nie an dem Punkt sein, wo absolut nichts mehr geht. Die Schritte werden nur irgendwann so klein wie die Transistoren selbst.
Vielleicht liege ich ja auch falsch, und es sind nochmal 20% drin bei einer Verdopplung der Fläche, dann sinds halt beim nächsten Mal nur noch 10%.

Ich widerspreche ja nicht, dass es schwierig ist, aber Nightspider hat schon recht dass es kein hartes Limit gibt, das uns sagt dass wir in den nächsten 10 Jahren nur noch 10% IPC rausholen können weil es nicht mehr gibt.
Es gibt aber ein hartes Limit in Abhängikeit vom Programm selbst! Du kannst eben maximal alle unabhängigen Instruktionen gleichzeitig ausführen, mehr gibt es eben nicht! Und die Anzahl der unabhängigen Instruktionen dürfte, wenn mich nicht alles täuscht, auch durch die Anzahl der logischen Register des instruction set begrenzt sein. Also gibt es auch ein allgemeines Limit für x86, das für alle Programme gilt.

Man kann eben nicht ein paar Daten in den Simulator stecken und dann sehen "klarer Fall, ab 2015 kanns nicht mehr als 7,3% pro Jahr geben".
Zumindest kann man sagen, wo das Limit liegt, und wie weit wir davon entfernt sind.

Es gibt außerdem immer die Möglichkeit, dass irgendjemand eine fürchterlich schlaue Idee hat, die nochmal einen kleinen Sprung auslöst, anstatt eben immer mehr kleinen Optimierungen die hier 0,5% und da 0,7% rausholen. Und gerade wenn man die nächsten 10 Jahre anschaut sind durchaus noch Durchbrüche bei der Fertigung möglich. CMOS ist etwas ausgelutscht, aber was auch immer 2029 verfügbar ist erlaubt eventuell wieder etwas großzügigeren Umgang mit Transistoren.
Klar, alles basiert auf der Annahme, dass die bestehenden physikalischen Gesetze erhalten bleiben.

robbitop
2019-03-25, 13:26:36
Das XPS 13 FHD (52WH) hält auch in der Praxis länger durch als das MBP 13 (2560x1600, 56WH). Nimmt man beim XPS 13 dagegen das UHD Panel fällt die Akkulaufzeit entsprechend niedriger aus. Die Auswirkung vom Panel und dessen Auflösung auf die erreichbare Laufzeit wird oft deutlich unterschätzt: https://www.notebookcheck.com/Test-Dell-XPS-13-9380-i7-8565U-4K-UHD-Laptop.410509.0.html#toc-energieverwaltung

Beim XPS 13 sind es bei ansonsten identischer Ausstattung (i5, 8/256GB) um die 5 Stunden Differenz (+ 2-3 Watt). Das war auch bei den Vorgängern schon so und für mich damals der Grund die FHD Variante zu nehmen.
Mein FHD XPS13 von Oktober letzten Jahres hält in der Praxis rund 8h. Normaler Office Einsatz (Outlook immer offen, Powerpoint, Word, Excel - nichts Weltbewegendes). Laut Notebookcheck liegt ein MBP hier bei 11 h. Das XPS13 laut Notebookcheck bei 7:44.

Setsul
2019-03-25, 13:40:15
@danarcho:
Wie gesagt rechne mal von Haswell bis Skylake durch. Es ist nicht ganz so schlimm.

Klar kann man sagen wo das Limit liegt, es ist nur nicht nützlich. Mit unendlichen Ressourcen kann man aus den meisten Programmen 10-20 IPC rausholen. Der Abstand ist in den letzten 10 Jahren nicht spürbar kleiner geworden. Deshalb ist es sehr schwer aus solchen Simulationen etwas nützliches abzuleiten, wieso gerade jetzt das ganze so schwer ist und nicht vor 10 Jahren oder erst in 5 Jahren.

Nein, die ISA-Register limitieren das nicht. Das ist ja der Sinn von Register Renaming. Wenn du eine dependency chain hast dann bringen dir auch 100 Register nichts, weil du eben die vorherigen Ergebnisse brauchst und wenn zwei Operationen nacheinander auf dem selben Register unabhängig voneinander sind (z.B. überschrieben durch Load und dann mit dem gerechnet) dann wird das vom Renaming getrennt.

ChaosTM
2019-03-25, 13:42:28
Effizient war noch nie so wichtige wie heute, wo es nicht mehr automatisch alle 2 Jahre 2x soviel Leistung fürs gleiche Geld gibt.
Wie viele DIE-Shrinks haben wir noch zu erwarten? Einen, oder mit viel Glück noch zwei, 3 würde mich ehrlich überraschen.

Daher wird/muss sich ARM (oder was vergleichbares) langsam aber sicher überall durchsetzen. Softwaremonopol hin oder her. Oder Intel/AMD schaffen es x86 auf ein ähnliches Niveau anzuheben aber das scheint aussichtslos.

Linus Torwald mag das aus verständlichen Gründen nicht gefallen, aber er wird es nicht aufhalten können.

robbitop
2019-03-25, 13:48:01
Das ist wie gesagt nicht richtig. (ich halte das Ganze ein Stück weit für Populismus). ARM ist per se nicht effizienter als x86. Oder Power oder oder oder (welches Instructionset auch immer). Es ist die Implementierung und der Betriebspunkt für die Optimierung der Implementierung, die das Ergebnis in Perf/W ausmacht.

Apple hätte, wenn sie eine andere mArch genutzt hätten, sicherlich auch damit andere Ergebnisse erreicht.

Intel und AMD optimieren ihre mArchs nunmal für einen Bereich von 10-100W und die meisten ARM Vendors eher auf 1-10W. Im mobilen Formfaktor ist das nunmal besser in Bezug auf Perf/W. Würde man die ARM Cores aber auf 4-5 GHz prügeln wollen, wäre die Perf/W auch nicht mehr besser (bzw müsste man die Implementierung umstoßen und auf den 10-100W Betriebspunkt umsetzen - längere Pipelines, mehr Massetransistoren etc). Das Endergebnis wäre mit hoher Wahrscheinlichkeit nicht besser, wenn man die absolut höchste Performance haben will.
Und genauso geht es auch umgekehrt. Im Bereich von 0.1-1W würden die aktuellen High Performance ARMs keinen Stich gegen die low Power ARMs sehen.

Alles eine Frage der Auslegung.

Und hier macht asynchrones SMP gegebenenfalls (sofern die Software damit anständig umgehen kann) wirklich Sinn. Siehe big-little. Intel hat im Rahmen von Foveros auch Ähnliches vor. Für low power Betriebspunkte (idle, Hintergrundprozesse, wenig bis mittel viel Last) entsprechende low power mArchs und für hohe Lastpunkte dann die High Performance Cores, die man dann jeweils an und ausknipsen kann. The right tool for the right job. Ist aber nicht trivial, da an und ausknipsen etwas dauert und Sheduler und Applikation entsprechend sinnvoll damit umgehen können müssen.

Bei iOS und Android funktioniert das bereits relativ gut. Warum nicht auch später mal in Linux, Windows, MacOS etc? Gab bis dato eben noch keine HW Basis in dem Bereich.

ChaosTM
2019-03-25, 13:54:23
Intel hat versucht low Power Chips zu bauen und ist kläglich gescheitert. Wie intensiv die Anstrengungen waren, lässt sich natürlich schwer sagen.

add.: ein bissl Populismus ist dabei. Es ist irgendwie schön quasi Monopolisten fallen/straucheln zu sehen.

YfOrU
2019-03-25, 13:57:40
Mein FHD XPS13 von Oktober letzten Jahres hält in der Praxis rund 8h. Normaler Office Einsatz (Outlook immer offen, Powerpoint, Word, Excel - nichts Weltbewegendes). Laut Notebookcheck liegt ein MBP hier bei 11 h. Das XPS13 laut Notebookcheck bei 7:44.


9370 FHD: 10:44
9370 UHD: 6:48
9380 FHD: 13:10
9380 UHD: 8:18
MBP 13: 9:42

Alle mit i5-8xxxU, 8/256GB

https://www.notebookcheck.com/Test-Dell-XPS-13-9370-Core-i5-FHD-Laptop.279864.0.html#toc-energieverwaltung
https://www.notebookcheck.com/Test-Dell-XPS-13-9380-i7-8565U-4K-UHD-Laptop.410509.0.html#toc-energieverwaltung

robbitop
2019-03-25, 13:58:10
Tja ist in der Praxis leider nicht so. :-(

Setsul
2019-03-25, 13:59:39
@ChaosTM:
Es gibt keinen eingebauten Effizienzvorteil für ARM.
Schau dir POWER an. Wenn man den Ingenieuren sagt dass das Ding so schnell sein soll wie möglich und 300W schlucken darf, dann wird das Ding auch 300W schlucken.

Intel kann auch 25 mW CPUs bauen (z.B. Quark), aber das ist nicht ihr Markt.

Zossel
2019-03-25, 15:10:06
Irgendwelche Prozesse im Hintergrund, Browsertabs etc sorgen immer mal wieder dafür, dass auf der CPU oder dem RAM oder der SSD immer mal wieder was passiert und diese aus den tiefen Powerstates aufwachen. Gerade bei iOS ist das ja massiv besser (aber auf Kosten der Usability von Multitasking). Bei MacOS hatte ich schon immer den Eindruck, dass Apple da mehr Eingriff hat und die Ergebnisse besser sind. (sie schreiben ja auch das OS und die SDKs für sämtliche Applikationen)

Das ist eben der Unterschied zwischen einem Medienabspielspielzeug und einem richtigen Computer.

Zossel
2019-03-25, 15:13:00
Daher wird/muss sich ARM (oder was vergleichbares) langsam aber sicher überall durchsetzen. Softwaremonopol hin oder her. Oder Intel/AMD schaffen es x86 auf ein ähnliches Niveau anzuheben aber das scheint aussichtslos.

Dann aber lieber RISC-V als ARM.

ChaosTM
2019-03-25, 16:48:44
Wäre wohl die bessere Lösung da "open" aber dafür sehe ich eher im ASICS Markt Chancen. Die sind dafür aber ziemlich gut. Würde mich nicht wundern, wenn die großen wie Google, Amazon und CO. bereits an solchen arbeiten (oder arbeiten lassen), um ihre Data Center CPUs zu ersetzen.

Skysnake
2019-03-25, 20:46:02
Naja die Europäer setzen auf RISCV und da ist z.b. BMW mit dabei

Zossel
2019-03-25, 21:04:27
Man kann eben nicht ein paar Daten in den Simulator stecken und dann sehen "klarer Fall, ab 2015 kanns nicht mehr als 7,3% pro Jahr geben".
Es gibt absolut genügend Möglichkeiten die IPC zu erhöhen, die nur momentan nicht sinnvoll sind weil sie die Effizienz senken und/oder die Performance insgesamt. Das sagen einem die Simulationen eben nicht.

Den Simulator gibt es bereits, nennt sich SMT. Die Zens legen mit SMT noch mal 20-30% drauf (gcc & make), im Umkehrschluss bedeutet das das ein Thread typischerweise 70-80& Auslastung erzeugt.

Setsul
2019-03-25, 21:38:31
SMT ist weder ein Simulator mit unendlichen Ressourcen, noch erhöht es die IPC pro Thread.
Natürlich gibt es keine Grenze wenn man mehr Threads verwenden kann. Da gibts eine tolle Technik nennt sich Multithreading. Doppelt soviele Threads = doppelt so viel IPC.
Das ist völlig unabhängig von out of order execution Ressourcen.

POWER8/9 haben SMT8 und dadurch ungefähr +100%. Laut deinem Umkehrschluss bedeutet das, dass jeder Thread nur 25% Auslastung erzeugt. Und schon haben wir bewiesen dass IPC >2 gar nicht möglich ist. Völliger Schwachsinn.

Skysnake
2019-03-25, 21:49:08
Naja es gibt schon echte simulatoren. Nennt sich z.b GEM5 und wird zum Beispiel von Fujitsu für die Post k Entwicklung verwendet. Ist nur leider arschlangsam

Leonidas
2019-03-26, 04:37:28
Intel hat versucht low Power Chips zu bauen und ist kläglich gescheitert. Wie intensiv die Anstrengungen waren, lässt sich natürlich schwer sagen.


Die Anstregungen waren extrem hoch, Bereich ca. 10-20 Mrd. $. Gescheitert ist man aber nicht am Produkt (war vernünftig), sondern daran, das man einen zu hohen Preisansatz gewählt hatte. Intel hatte die Mlliarden Billigheimer nicht im Blickfeld, sondern dachte man könnte die *ganze* Welt mit HighEnd-SoCs beglücken.

Intels Monopolstellung auf dem PC kommt hier erschwerend hinzu. Keiner der Abnehmer fand es sicherlich spannend, ausgerechnet Intel in diesem Markt weiterhelfen zu sollen.

robbitop
2019-03-26, 07:09:25
Intel hat versucht low Power Chips zu bauen und ist kläglich gescheitert. Wie intensiv die Anstrengungen waren, lässt sich natürlich schwer sagen.

add.: ein bissl Populismus ist dabei. Es ist irgendwie schön quasi Monopolisten fallen/straucheln zu sehen.

Atom war einfach kein besonders guter Versuch. ;)

Zossel
2019-03-26, 07:19:21
POWER8/9 haben SMT8 und dadurch ungefähr +100%. Laut deinem Umkehrschluss bedeutet das, dass jeder Thread nur 25% Auslastung erzeugt. Und schon haben wir bewiesen dass IPC >2 gar nicht möglich ist. Völliger Schwachsinn.

Dem kann ich nicht folgen, ich formuliere mal so: Wenn die Ressourcen für einen Thread nicht reichen würden, würde SMT nichts bringen. ILP wird also nicht durch die vorhandenen Ressourcen signifikant gebremst.

robbitop
2019-03-26, 07:30:23
Execution Ressources sind nicht immer der Flaschenhals für die Ausnutzung der ILP. :)

danarcho
2019-03-26, 09:06:55
SMT ist für den einzelnen Thread so gut wie immer langsamer als den Kern für sich zu haben.
SMT wurde erfunden, um die immer größer werdende Anzahl an execution units noch sinnvoll zu nutzen. Die Idee ist dabei aber eher, dass die Threads nicht immer alle Typen gleichzeitig benötigen. So kann in einem Takt zB der eine Thread FP Berechnungen machen und der andere ein load/store oder Int. Wären die execution units kein Flaschenhals, müsste SMT doch +100% bringen! (geteilten cache mal ignoriert, aber wenn das zu stark reinspielt, ist mit SMT oft sogar langsamer als ohne).

Loeschzwerg
2019-03-26, 09:25:04
CB mit einer News zu den Veränderungen der Caches bei ICL:
https://www.computerbase.de/2019-03/intel-ice-lake-l1-l2-cache-assoziativitaet/

HOT
2019-03-26, 10:31:30
Könnte doch mit AVX512F zusammenhängen, dass man jetzt größere Datencaches braucht oder? Siehe Skylake X.

Setsul
2019-03-26, 16:00:18
@Zossel:
Es ging darum inwieweit IPC durch Programme an sich begrenzt ist.
Du argumentierst also sowieso in die falsche Richtung.
Wenn ILP nicht durch die Ressourcen begrenzt ist wieso hat man sie dann? Und wieso erreichen Architekturen mit mehr Ressourcen höhere IPC, wenn das nicht das Problem ist?

Außerdem mal rein logisch, ein kleines Beispiel nur auf ALUs beschränkt:
Wenn 2 Threads auf 2 ALUs nicht schneller sind als nur 1 Thread auf 2 ALUs dann müsste das ganze perfekt skalieren, also 100% Auslastung mit einem Thread. In der Praxis bekommt man aber durch +100% ALUs nicht +100% Leistung. Das heißt aber nicht, dass es mit 3 oder 4 ALUs nicht noch schneller werden kann. Das ist schließlich genau das was man gemacht hat.

@danarcho:
Nicht zu vergessen dass ein Thread ab und zu doch mal auf den RAM warten muss. Selbst wenn beide Threads nur INT wollen kann SMT etwas bringen.

@Loeschzwerg:
Ich glaube das ist schon eine Weile bekannt.

@HOT:
Aber nicht der L1D. Mal sehen ob sich am L3 etwas ändert, aber generell ist mehr Cache besser, wenn man die Latenz halten kann. Also wieso nicht sich das Leben etwas einfacher machen?
Intel hat ja groß angekündigt dass sie single threaded performance steigern wollen, da kann man mit Caches natürlich etwas schummeln.

Pirx
2019-03-26, 16:16:32
Müssten sie die ganzen Caches nicht eh massiv überarbeiten, wenn sie beim Thema Meltdown/Spectre/Spoiler/... zu AMD aufschließen wollen?

dildo4u
2019-03-26, 17:10:21
Ich bin gespannt ob Intel die Mobile Modelle auch bringt wenn der CPU Teil gleich schnell ist nur um die neue GPU zu haben.
Die ersten Einträge nach hinkt der Takt noch hinterher,14nm Mobile schafft über 4000 Punkte im Single Core Geekbench.10nm um 3800.

danarcho
2019-03-26, 17:47:47
@danarcho:
Nicht zu vergessen dass ein Thread ab und zu doch mal auf den RAM warten muss. Selbst wenn beide Threads nur INT wollen kann SMT etwas bringen.
Sicher. Aber dafür würde auch interleaved multithreading ausreichen. Bei simultanious multithreading geht's ja gerade darum, dass in einem Takt Instruktionen von mehreren Threads ausgeführt werden können. Aber ich geb zu, das ist gerade Haarspalterei.

Setsul
2019-03-26, 19:08:05
@Pirx:
Was im Cache drinliegt ist egal. Es darf nur nicht geladen werden wozu der Prozess keine Rechte hat. Das liegt am Kern bzw. an den Load/Store Units.

@danarcho:
Naja nur wenn alles an einer dependency chain hängt, aber es soll ja durchaus mehrere geben. SMT macht eben alles und mit out of order execution kostet es effektiv nicht mehr als coarse-grained multithreading oder ähnliches.

Zossel
2019-03-26, 19:43:10
@Zossel:
Es ging darum inwieweit IPC durch Programme an sich begrenzt ist.
Du argumentierst also sowieso in die falsche Richtung.
Wenn ILP nicht durch die Ressourcen begrenzt ist wieso hat man sie dann? Und wieso erreichen Architekturen mit mehr Ressourcen höhere IPC, wenn das nicht das Problem ist?

Der entsprechende Zusamenhang ist weder linear und konvergiert zusätzlich gegen einen Grenzwert. Schnapp dir einfach mal ein paar typische kleine Schleifen und dann schau was was da so an potenzieller ILP so drin ist.

gcc -S liefert Assemblerquellcode, so das man sich mal anschauen kann womit sich heutige CPU so herumschlagen müssen.

Setsul
2019-03-26, 20:23:57
Was ist jetzt dein Argument?
Wenn es einen Grenzwert gibt dann sag uns doch einfach wieviel es genau ist.
Das Argument mit SMT ist immernoch Schwachsinn.

BlackBirdSR
2019-03-26, 20:35:45
Was genau diskutiert ihr eigentlich?

Jede CPU hat einen Retire Rate von X Instruktionen.
Die begrenzt den Wert für diese Architektur nach oben.
Software landet nun irgendwo zwischen 0 und X (wichtig: average) und über all die Tricks (SMT etc) versucht man möglichst nahe an X zu kommen.

X kann 2 sein (p5), 3 (p6), oder 8 (Zen).
Das muss nicht heißen, dass ein Zen im Schnitt nahe bei 8 liegt

crux2005
2019-03-28, 00:41:13
Auf einer Skala von 0-10 (nicht möglich bis 100% sicher), wie hoch schätzt ihr einen Ice Lake (Desktop) Release in 2019?

Blediator16
2019-03-28, 00:50:21
0 :biggrin:

Linmoum
2019-03-28, 00:50:52
-1.

Aber bis Q1 2020 wär's auch nicht ewig weit weg, von daher.

w0mbat
2019-03-28, 00:51:29
2-3, aber wenn, dann Ende Q4.

Linmoum
2019-03-28, 01:00:08
Holiday Season (also Ende Q4) für Ice Lake ist sowieso von Intel bestätigt, vorher kommt da auch nichts. In welcher Form dann zum Jahresende auch immer. Zuerst dürfte ziemlich sicher Mobile dran sein. Aber auch das muss nichts heißen, siehe Verfügbarkeit von Whiskey Lake-U nach dem "Launch".

mczak
2019-03-28, 03:49:28
Auf einer Skala von 0-10 (nicht möglich bis 100% sicher), wie hoch schätzt ihr einen Ice Lake (Desktop) Release in 2019?
Wenn man die NUCs zum Desktop zählt wäre 2019 wohl möglich :biggrin:.
Laut Gerüchten kommt ja vielleicht Ice Lake auf dem Desktop gar nie, aber auch wenn das nicht stimmt sehe ich da absolut keine Chance für 2019.

HOT
2019-03-28, 04:52:26
Auf einer Skala von 0-10 (nicht möglich bis 100% sicher), wie hoch schätzt ihr einen Ice Lake (Desktop) Release in 2019?
Da Cometlake S ihn ersetzt 0.

Leonidas
2019-03-28, 05:31:34
Da derzeit noch nicht einmal der CFL-Refresh vollständig im Desktop-Segment ist und danach noch Comet Lake eine vollständige neue Generation bilden soll - im starken Minusbereich. Ice Lake Desktop ist entweder gesprichen (zugunsten von Tiger Lake), oder kommt nicht vor Sommer 2020, eventuell auch nur als Minimal-Version.

Nightspider
2019-03-28, 09:52:35
Wenn wir Pech haben kommt Comet Lake wirklich erst Mitte nächsten Jahres.
Verfügbarkeit wird am Anfang eh grausig sein was die Preise wieder hoch hält.

Wird ein gutes Jahr für AMD.

y33H@
2019-03-28, 09:55:01
CML-S ist in den Roadmaps für Q1/2020 eingetragen bisher.

HOT
2019-03-28, 10:18:14
Na ja, nach der Rückrüstung von 3 Fabs wird genug 14nm-Kapazität freisetzen, dass dem Launch Anfang 2020 nichts im Wege stehen dürfte. Aber 2020 braucht man nicht mit 10nm-CPUs im Desktop zu rechnen, das ist einfach illusorisch. CML-S bleibt sicherlich ebenfalls über 1 Jahr aktuell. Ich halte das Tigerlake-Scenario für sehr wahrscheinlich.

robbitop
2019-03-28, 10:31:57
Ist das Gerücht, dass Intel 10nm überspringen will für die Desktop Prozessoren eigentlich noch aktuell? Bei all den Verschiebungen müsste doch langsam der Nachfolgeprozess relevant werden, oder? Die werden doch unabhängig voneinander entwickelt, oder?

dildo4u
2019-03-28, 10:39:44
Fabs müssen dafür erst noch ausgebaut werden,sie erwarten 18 Monate Bauzeit plus Installation der Produktions Hardware.

https://www.oregonlive.com/silicon-forest/2019/01/intel-preparing-to-spend-billions-on-new-oregon-factory.html

Nightspider
2019-03-28, 12:05:34
Ach stimmt, Comet Lake kommt ja auch nochmal in 14nm. Aber Q1 kann halt auch ein Release Ende März in homeopathischen Stückzahlen bedeuten. Wäre nicht dass erste Mal.
Wenn die neuen Führungskräfte klug sind lassen sie bei den Topmodellen die IGP weg.

Ravenhearth
2019-03-28, 12:20:50
Ich weiß nicht, ob das Weglassen der IGP so klug wäre. Zum einen verbaut Intel die CPUs evtl. auch in Notebooks, genauso wie die aktuellen Achtkerner, zum anderen werden die auch im Desktop nicht nur zum Spielen gekauft.

Nightspider
2019-03-28, 17:17:51
Wenn Comet Lake wirklich mit einem 10 Core Die kommt stellt sich aber die Frage ob es sinnvoll ist so einen riesigen und heißen 14nm Chip in einem Laptop zu verbauen.
Gerade wenn es gute (?) QuadCore (?) Alternativen in 10nm gibt.

Leonidas
2019-03-29, 03:39:56
Zu Comet Lake ist doch aber der 10C+GT2 schon klar:
https://www.3dcenter.org/news/intels-comet-lake-generation-bestaetigt-sich-mittels-offizieller-treiber-eintraege

Verbaut wird die iGPU also so oder so.

Nightspider
2019-03-29, 05:02:51
Hmm, okay.

dildo4u
2019-03-29, 07:04:13
Warum sollte man den IGP bei er einer CPU kappen die Absurde Preise aufrufen wird?Es macht Sinn wenn es um die Massenfertigung geht der 9400f ist z.b für Intel Verhältnisse relativ günstig.

Lehdro
2019-03-29, 13:50:01
Es macht Sinn wenn es um die Massenfertigung geht der 9400f ist z.b für Intel Verhältnisse relativ günstig.
Der 9400F ist auch "Abfall", die IGP ist physisch vorhanden, aber abgeschaltet.

Nightspider
2019-03-29, 15:21:49
Warum sollte man den IGP bei er einer CPU kappen die Absurde Preise aufrufen wird?Es macht Sinn wenn es um die Massenfertigung geht der 9400f ist z.b für Intel Verhältnisse relativ günstig.

Du meinst bei einer Massenfertigung mit Kapazitätsproblemen ohne einer starken Konkurrenz ohne unnötiger IGP? :ulol:

Ohne IGP spart man vielleicht 20% bei den Fertigungskosten, kann entsprechend mehr Dies pro Wafer produzieren, könnte den Preis um 10% senken und hätte trotzdem noch eine größere Marge.
Natürlich Milchmädchenrechnung aber die Vorzüge sind nicht von der Hand zu weisen.

Aber gut. Ergibt mehr Spielraum für die erstarkende Konkurrenz. ^^

Ravenhearth
2019-03-29, 16:50:52
Nochmal: Viele Coffee Lake-Käufer kaufen die CPUs bzw. Rechner mit diesen CPUs nicht trotz, sondern wegen der vorhandenen IGP. Ich weiß nicht, es ob sich rechnet, nur für Gamer eine eigene Chip-Variante zu produzieren. Intel wird sich dabei ja wohl was gedacht haben.

Denniss
2019-03-29, 21:12:16
ohne IGP spart einiges an Fläche und damit Herstellungskosten. Sind auch gut als Xeons verwurstbar di sowieso meist keine IGP haben.

Nightspider
2019-03-29, 21:39:54
Nochmal: Viele Coffee Lake-Käufer kaufen die CPUs bzw. Rechner mit diesen CPUs nicht trotz, sondern wegen der vorhandenen IGP. Ich weiß nicht, es ob sich rechnet, nur für Gamer eine eigene Chip-Variante zu produzieren. Intel wird sich dabei ja wohl was gedacht haben.

Welche Zielgruppe braucht denn dringend den Schritt von 8 auf 10 Kerne aber nur eine IGP?

Und für Leute die >10 Kerne brauchen gibts Sockel 2011 und Co.

In solchen Workstations kann man auch eine 30 Euro Grafikkarte verbauen, dazu braucht man kein Intel GPU Crap imo.

HOT
2019-03-30, 08:39:40
Gut die Frage stellt sich ja gar nicht, das Ding hat ja GT2.

gmb
2019-04-06, 10:02:35
Intel®Processor Graphics Gen11Architecture
https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf


https://abload.de/img/gen11nckhv.png


Die Präsentation von der GDC ist neu:
https://www.slideshare.net/IntelSoftware/the-architecture-of-11th-generation-intel-processor-graphics

https://abload.de/img/gen11_2t0jxr.png


Maximale Bandbreite von 59.7 GB/s....im Notebook. Das ist schon nice. Die 25W Version Iris Plus 25W mit LPDDR4-3733 will ich sehen.

mczak
2019-04-06, 22:25:08
Maximale Bandbreite von 59.7 GB/s....im Notebook. Das ist schon nice. Die 25W Version Iris Plus 25W mit LPDDR4-3733 will ich sehen.
LPDDR4 ist ja eigentlich sehr interessant, weil mit ddr4 kriegt man wohl bloss 3200 hin (Jedec konform bei Standardspannung von 1.2V, overvolt-Speicher ist im Notebook eh ein no-go). LPDDR4 gibt es sogar bis 4266 (da bleibt intel also noch unter dem Maximum), und das bei bloss 1.1V. Leider ist dann aber halt alles verlötet, und ausreichend Speicher (16GB) kriegt man dann wohl wie üblich nur als absolutes Highend-Modell...

gmb
2019-04-08, 01:48:38
LPDDR4 ist ja eigentlich sehr interessant, weil mit ddr4 kriegt man wohl bloss 3200 hin (Jedec konform bei Standardspannung von 1.2V, overvolt-Speicher ist im Notebook eh ein no-go). LPDDR4 gibt es sogar bis 4266 (da bleibt intel also noch unter dem Maximum), und das bei bloss 1.1V. Leider ist dann aber halt alles verlötet, und ausreichend Speicher (16GB) kriegt man dann wohl wie üblich nur als absolutes Highend-Modell...


Nicht nur sparsamer, verlöteter LPDDR ist platzsparender. Aber 16 GB ist doch nicht nur für absolutes Highend, schau dir doch die Preise bei KBL-R an. Absolutes highend geht Richtung 2000€ und wahrscheinlich geht der Trend mehr Richtung 32GB bei der nächsten Generation im absoluten highend. Für die allermeisten dürften 8 GB auch noch ausreichend sein für so ein ultrabook. Aber klar, wenn ich 1000€ und mehr ausgebe, würde ich gleich ein Modell mit 16 GB nehmen. Der Aufpreis liegt meist bei 100-150€.

YfOrU
2019-04-08, 08:40:57
LPDDR4 ist ja eigentlich sehr interessant, weil mit ddr4 kriegt man wohl bloss 3200 hin (Jedec konform bei Standardspannung von 1.2V, overvolt-Speicher ist im Notebook eh ein no-go). LPDDR4 gibt es sogar bis 4266 (da bleibt intel also noch unter dem Maximum), und das bei bloss 1.1V. Leider ist dann aber halt alles verlötet, und ausreichend Speicher (16GB) kriegt man dann wohl wie üblich nur als absolutes Highend-Modell...

Der Sprung ist auch überfällig da das Limit bisher grundsätzlich LPDDR3-2133 mit maximal 16GB ist. Mehr geht bis inkl. WHL-U nur mit DDR4 und das ist in diesem Segment (Leistungsaufnahme, Powemanagement) nicht gerade optimal.

davidzo
2019-04-08, 09:43:12
Nicht nur sparsamer, verlöteter LPDDR ist platzsparender. Aber 16 GB ist doch nicht nur für absolutes Highend, schau dir doch die Preise bei KBL-R an. Absolutes highend geht Richtung 2000€ und wahrscheinlich geht der Trend mehr Richtung 32GB bei der nächsten Generation im absoluten highend. Für die allermeisten dürften 8 GB auch noch ausreichend sein für so ein ultrabook. Aber klar, wenn ich 1000€ und mehr ausgebe, würde ich gleich ein Modell mit 16 GB nehmen. Der Aufpreis liegt meist bei 100-150€.

Dito, mein Retina macbook ist von 2014 und hat 16GB. Die Stagnation seitdem ist einer der Faktoren wieso ich noch kein neues Gerät habe (egpu hilft auch). Dasselbe beim storage. Damals gab es schon 1TB, bis 2018 hat sich das gerademal auf 2TB gesteigert. Dafür kauf ich doch kein neues Gerät...

32GB ist minimum, 64gb wären interessant.

MSABK
2019-04-08, 11:17:37
Naja, der Aufpreis von 8gb auf 16gb ram liegt nicht nur selten bei 100-150€, eher bis 300€.

mczak
2019-04-08, 15:55:14
Der Aufpreis liegt meist bei 100-150€.
Wenn es frei konfigurierbar ist. Ansonsten kann es aber gut sein dass du für 16GB auch noch gleich z.B ein Upgrade von i5->i7 (bringt so ca. 3% Performance bei ST und 0% bei MT bei 15W...) sowie ein 4k Display (kostet viel, bringt imho nur wenig bei 15" und hat insbesondere deutliche Auswirkungen auf die Laufzeit) benötigst.
Und eigentlich ist alles über 100 Euro für ein Upgrade von 8GB auf 16GB sowieso eine Frechheit (klar bei apple sind's 200 Euro), aber weil lpddr4 halt zwingend verlötet ist gibt's hier dann auch keine Möglichkeit Mondpreise zu umgehen.

gmb
2019-04-13, 23:49:29
Wenn es frei konfigurierbar ist. Ansonsten kann es aber gut sein dass du für 16GB auch noch gleich z.B ein Upgrade von i5->i7 (bringt so ca. 3% Performance bei ST und 0% bei MT bei 15W...) sowie ein 4k Display (kostet viel, bringt imho nur wenig bei 15" und hat insbesondere deutliche Auswirkungen auf die Laufzeit) benötigst.
Und eigentlich ist alles über 100 Euro für ein Upgrade von 8GB auf 16GB sowieso eine Frechheit (klar bei apple sind's 200 Euro), aber weil lpddr4 halt zwingend verlötet ist gibt's hier dann auch keine Möglichkeit Mondpreise zu umgehen.


Deine Aussage war gewesen, dass man 16GB nur bei absoluten Highend-Modellen bekommt.....was einfach nicht mehr stimmt. Jeder Hersteller bietet KBL-R/WHL-U Geräte mit 1080p, 512er SSD und 16GB um die 1000€ an. Die nächste Generation wird den Trend Richtung 16 GB noch verstärken.

Blediator16
2019-04-24, 17:06:58
Vom guten alten Fanboy Witeken:

Bringing to you the latest Intel Confidential Client Roadmap through Q4'21! Warning: contains 14nm.

- 14nm Comet Lake-H/-U/-Y/-S in early '21, up to 10C
- 14nm Rocket Lake-U/-S in early '22, up to 6/10C
- 14nm gfx
- 10nm Tiger Lake-U/-Y in early '22, up to 4C

Where's Ice Lake?



https://twitter.com/witeken/status/1121052220072583174

Und zu Mobile gibts auch etwas:

Now moving on to the Intel Mobile Roadmap through Q4'20:

- 10nm ICL-U/-Y in Q2'19 (limited)
- 10nm Lakefield Q2'19, refresh Q2'20
- 10nm Tiger Lake-U/-Y in Q2'20
- 14nm Rocket Lake + 10nm gfx Q2'20
- 14nm Comet Lake-U/H/Y H2'19
- Atom: 10nm Skyhawk + Elkhart Lake H2'20

https://twitter.com/witeken/status/1121054888102961153

Zum totlachen ;D

HOT
2019-04-24, 17:50:06
Aha, hab mir schon gedacht, das zwischen Tigerlake S und Cometlake S noch was fehlen muss. Also Anfang 2020 Cometlake S (vielleicht wieder mit dem "Vorziehen" auf Ende 2019), Anfang 2021 Rocketlake S und Anfang 2022 dann Tigerlake S. Das füllt einige Informationslücke im schon stimmigen Gesamtplan.
Icelake ist wahrscheinlich eh von Cometlake und Rocketlake featuretechnisch überholt worden. Da kann man ne winzige Kleinserie erwarten, damit die Manager sich wieder ihre Boni ausschütten können und das wars. Cannonlake wird damit sicherlich eingestampft. Da ist ne komplette Architektur übern Jordan gegangen bei den scheiss Verzögerungen.
Interessant ist, dass bei Rocketlake separat GFX erwähnt wird, ist das schon ein Chiplet-Ansatz? Würd mich nicht wundern, dafür haben die Keller doch auch geholt.

Man muss sich jetzt sicherlich komplett mit 14nm gegen AMDs 7/6nm-Generation behaupten, das wird verdammt schwer. Wenn Tigerlake endlich kommt ist AMD sicherlich schon auf 5nm.

y33H@
2019-04-24, 17:55:22
Kommt eigentlich von Tweakers:

https://tweakers.net/nieuws/151984/roadmap-toont-dat-intel-in-2021-nog-desktop-cpus-op-14nm-maakt.html

gmb
2019-04-24, 17:57:52
Also Icelake-U/Y dieses Jahr erwartungsgemäß in begrenzter Stückzahl. Hinter Rocket Lake vermute ich Icelake in 14nm. Wie ist denn das 10nm gfx zu verstehen, ist hier Intels dGPU gemeint oder besteht Rocket Lake aus einer 14nm CPU und einer 10nm iGPU. Wenn letzteres zutrifft, ist die CPU ziemlich sicher Icelake (Sunny Cove) in 14nm. Hat Intel ja schon beim architecture day bestätigt, dass Sunny Cove auch in 14nm kommt.

Blediator16
2019-04-24, 18:03:49
Es ist brutal wie tief die Fertigung von Intel gefallen ist. Wer hätte vor Zen geglaubt, dass AMD zurückkommen kann :D

HOT
2019-04-24, 18:28:08
Die Probleme gingen 2014 los, als man 14nm nicht hinbekam.

BoMbY
2019-04-24, 18:34:13
Tja, wie erwartet. Kein Wunder das man sich für die GPUs nach Outsourcing umschaut. Was mich nur wundert ist, dass man nicht das Handtuch wirft und langsam komplett auf Fabless umstellt.

Linmoum
2019-04-24, 18:36:31
2022 dann Intel 10nm vs. Zen4 in 5nm? ;D

Im Prinzip können sie im Desktop 10nm auch gleich überspringen. Was ein gewaltiger fail.

Edit: Quatsch, 2022 dann ja u.U. Auch schon Zen5, sofern wir das zu sehen bekommen. Iirc bisher ja nur Zen4 offiziell bestätigt.

MSABK
2019-04-24, 18:55:25
Wenn man das so liest, dann muss AMD so schnell es geht eine 7nm CPU/APU für den mobilen Markt bringen. Das wäre echt eine große Chance.

Ex3cut3r
2019-04-24, 18:57:04
Echt kacke, hoffentlich taugt Zen 2 auch was, will meinen 4770k ersetzen.

crux2005
2019-04-24, 19:13:47
Kommt eigentlich von Tweakers:

https://tweakers.net/nieuws/151984/roadmap-toont-dat-intel-in-2021-nog-desktop-cpus-op-14nm-maakt.html

Bitter.

Und schlecht für die Spieler falls der 9900K noch bis 2020 die schnellste CPU in Spielen sein sollte.

Linmoum
2019-04-24, 19:20:59
Warum wäre das für die Spieler schlecht?

Also für die 5-10% vom Gesamtmarkt, die sich überhaupt in dem Preisbereich eine CPU zulegen? :confused:

Langfristig, so kurios das auf den ersten Blick klingen mag, ist das für den Konsumenten keine schlechte Nachricht, im Gegenteil. Denn das heißt für AMD mehr Marktanteile, mehr Kohle und dementsprechend auch steigendes R&D-Budget. Und ein 9900K mit 5GHz wird in Spielen selbst 2021 noch eine Top-CPU sein.

Dorn
2019-04-24, 21:04:31
Und ein 9900K mit 5GHz wird in Spielen selbst 2021 noch eine Top-CPU sein.Der ist Schrott, da der Verbrauch jenseits von Gut und Böse ist.
Da anscheinend die nächsten Jahre nichts von Intel in 10nm für den Desktop kommt, bleibe ich bei meinem 6700K dem Ursprung aller Refreshes.

Es sei den Ryzen rockt endlich mal bei Spielen durchgehend.

MiamiNice
2019-04-24, 21:53:45
Bin unentschlossen ob ich das toll finde oder eher nicht.
Hat Intel Angst vor der Zerschlagung oder warum gönnen die AMD dieses Fenster? Ich mein andere bekommen es hin und Intel ist nicht arm. Das es am Know How liegt und damit auch direkt an der Kohle kann doch eigentlich nicht sein. Hab jetzt von den Lithografie Maschinen nicht so den Plan aber die kann man doch kaufen oder nicht? Wo ist das Problem die selben Modelle zu kaufen die bei TSMC stehen und freudig los zu produzieren?

Oder bin ich falsch gewickelt?

HOT
2019-04-24, 22:06:22
Ein Faktor könnte sein, dass man EUV einfach verschlafen hat. Ein Anderer, dass man zu ehrgreizig war mit seinen Schrumpfungsplänen und der zusätzlichen Technologie/neuen Materialien. Ein Weiterer, dass man in 2012-14 Personal abgebaut hat, da man ja ab Ivy absolut konkurrenzlos war.
Da machst dir dann so nen Cocktail zurecht und hast dann eben für 5 Jahre verkackt und das ist eben das Resultat. Denn das alles aufzuholen dauert eben. TSMC und Samsung (und GloFo) haben bis 2019 dauerinvestiert, Milliarden über Milliarden, und Personal aufgebaut. Dann stieg GloFo aus und das übrigbleibende Duopol macht fett Kasse. Asiaten haben eben Geduld und planen langfristig. Das zahlt sich jetzt aus.

Der ursprüngliche Plan war AFAIK
2012 22nm
2014 14nm
2016 10nm
2019 7nm

jetzt wurde daraus
2012 22nm
2015 14nm
2022 10nm
202? 7nm (vor 2024 dürfte doch arg unwahrscheinlich sein)

Man müsste dringend die scheiss Fabs loswerden, nur ist der Krempel momentan einfach nix wert. Ich weiss noch das "real men have Fabs" gelaber. Das hat sich jetzt genau ins Umgekehrte gezogen. AMD hat den Absprung genau zum rechten Zeitpunkt geschafft und ist genau deswegen jetzt vorne. Aber wie lange hat die Bindung an GloFo gedauert, erst jetzt, nach 12 Jahren, ist AMD frei davon. Bis heute waren die Intel Fabs ein Segen für Intel. Aber wehe die Umsätze sinken, dann werden aus riesen Gewinnen riesige Verluste.

TSMC/Samsung im Vergleich:
2019 7 DUV
2020 7 EUV
2020/21 6 EUV
2021/22 5 EUV
2022/23 4 EUV
2023/24 3 GAAF

dildo4u
2019-04-24, 22:06:55
Das würde vermutlich auf Selbe rauskommen wenn sie jetzt noch mal die Fertigung wechseln müssten,2 Jahre dauert das so oder so.

Lehdro
2019-04-24, 22:26:57
Intel tut vorallem weh das sie die große Architekturüberarbeitung an 10nm genknüpft hatte - nun haben wir seit über 3 Jahren keinerlei Architekturänderung gesehen. Und selbst das bisschen was Intel im HEDT Sektor gebracht hat, ist eher eine Bauchlandung, als der große erhoffte Wurf. Ich meine man fragt sich was deren Chipentwickler in der ganzen Zeit machen. Da wird sicher eine Menge im Hintergrund einfach entwickelt was nicht eingesetzt werden kann - was dann die Frage aufwirft was passiert wenn man dass dann alles auf einmal in einem Chip presst? 2021/22 wissen wir mehr :D

amdfanuwe
2019-04-24, 22:32:14
Weitere Faktoren könnten auch Karrieregeile oder gut eingesessene Mangerposten sein.
Da wird aus dem Problem, dass der Ingenieur unten meldet beim ChefChefChefChefChef ganz oben ein "ALLES OK"

MiamiNice
2019-04-24, 22:32:14
Man müsste dringend die scheiss Fabs loswerden, nur ist der Krempel momentan einfach nix wert. Ich weiss noch das "real men have Fabs" gelaber. Das hat sich jetzt genau ins Umgekehrte gezogen. AMD hat den Absprung geschafft und ist genau deswegen jetzt vorne.

Was genau bedeutet in diesem Kontext vorne? Bei der Fertigung? Leistung technisch ist man nicht vorne und die Fertigung ist ja nicht deren eigene. Wie kann AMD da vorne sein? Zumal die Marktanteile noch immer bei 80 zu 20% liegen? Ich sehe AMD noch immer weit hinten, zumindest im Desktop Bereich.
Und AMD backt noch immer kleine Brötchen sonst würde Lisa die Ryzens weit teurer machen, imo. Also sieht sich AMD selbst auch nicht vorne, möchte ich meinen.

Ein Faktor könnte sein, dass man EUV einfach verschlafen hat. Ein Anderer, dass man zu ehrgreizig war mit seinen Schrumpfungsplänen und der zusätzlichen Technologie/neuen Materialien. Ein Weiterer, dass man in 2012-14 Personal abgebaut hat, da man ja ab Ivy absolut konkurrenzlos war.
Da machst dir dann so nen Cocktail zurecht und hast dann eben für 5 Jahre verkackt und das ist eben das Resultat. Denn das alles aufzuholen dauert eben. TSMC und Samsung (und GloFo) haben bis 2019 dauerinvestiert, Milliarden über Milliarden, und Personal aufgebaut. Dann stieg GloFo aus und das übrigbleibende Duopol macht fett Kasse. Asiaten haben eben Geduld und planen langfristig. Das zahlt sich jetzt aus.

Damit hast Du meine Frage nicht wirklich beantwortet. Intel schwimmt in Geld und meiner Ansicht nach können die kaufen was immer die wollen. Ob das Maschinen oder Mitarbeiter sind, und da ist auch ziemlich egal wie teuer die sind, Intel kann sich alles leisten. Wenn ich mir alles leisten kann aber es nicht umsetze und sogar einen Imageverlust riskiere, hat das einen Grund. Geld regiert die Welt und Intel weiß seit Jahren das sie in 10nm abstinken gegen TSMC oder wen auch immer. Als führendes Unternehmen, das es sich leisten kann, hätte ich doch schon vor Jahren zugesehen die Weichen für heute zu stellen.

Der_Korken
2019-04-24, 22:38:33
Wenn Intel wirklich schon eine bessere Architektur am Start hätte und es nur an 10nm fehlt, hätten die schon längst an einer Portierung auf 14nm arbeiten sollen. Dass 10nm sich verzögert, wussten die doch schon vor Jahren, genauso dass es nicht absehbar ist, wann der Prozess laufen wird. Ich mein, die entwickeln überspitzt gesagt für jede Kernzahl eine eigene Maske, da müsste ein Backport doch drin sein?

Linmoum
2019-04-24, 23:50:58
Was genau bedeutet in diesem Kontext vorne? Bei der Fertigung? Leistung technisch ist man nicht vorne und die Fertigung ist ja nicht deren eigene. Wie kann AMD da vorne sein? Zumal die Marktanteile noch immer bei 80 zu 20% liegen? Ich sehe AMD noch immer weit hinten, zumindest im Desktop Bereich.
Und AMD backt noch immer kleine Brötchen sonst würde Lisa die Ryzens weit teurer machen, imo. Also sieht sich AMD selbst auch nicht vorne, möchte ich meinen.
Das bezieht sich auf den Fertigungsprozess, ob AMD jetzt fabless ist oder nicht ist ja unerheblich dafür. Man hat eben die richtigen Entscheidungen getroffen. ;) Ryzen teurer heißt ansonsten weniger Marktanteile, genau deswegen war, ist und wird Ryzen in (naher) Zukunft mit einer aggressiven Positionierung verkauft.

AMD wird in diesem Jahr 7nm-CPUs anbieten, Intel weiterhin nur 14nm+++++++.
Im nächsten Jahr dann 7nm+ bei AMD und 14nm++++++++ bei Intel.
Im Jahr darauf dann 6nm/5nm bei AMD und augenscheinlich 14nm+++++++++ bei Intel.

Das wird schon in diesem Jahr ein Nachteil (gerade hinsichtlich des Verbrauchs), der bis 2021 immer massiver wird, je länger man es nicht auf die Reihe kriegt, den 10nm-Prozess vernünftig zum laufen zu bringen. Man kann nur hoffen für Intel, dass die Roadmap so nicht echt ist. Komplettes Desaster, wenn das vor 2022 wirklich nichts wird.

MSABK
2019-04-24, 23:56:46
Das erklärt zumindest auch die Gerüchte um Apple eigene CPUs für ihre Macbooks. Weil noch weitere Jahre stillstand im mobilen Sektor wirken sich da nicht gut auf die Entwicklung von Notebooks aus. Da muss eigentlich radikaler/schneller vorangegangen werden bzgl. Arm für Windows und MacOS.

MiamiNice
2019-04-25, 00:52:43
Mich interessiert eigentlich nur der Punkt warum Intel das nicht kauft bzw. präziser gekauft hat. Intel hat so viel Geld die könnten AMD direkt kaufen wenn sie dürften. Intel könnte auch ASML kaufen, oder so ziemlich fast jede andere Firma und jeden anderen Menschen. Intel steht, stand heute, auf Platz 19 der reichsten und einflussreichsten Unternehmen weltweit. In der Chefetage sitzen keine Anfänger, man ist gegenüber den Aktionären verpflichtet und man hat einen Ruf zu verlieren in deren Markt.
Wir sprechen hier nicht über AMD eher die Lisa daher geritten kam oder über sonst ein Unternehmen in dem die falschen Leute auf diversen Posten sitzen. Intel beschäftigt sicher ein Heer an Analysten und Intel wusste ganz sicher lange vor dem Zen Release, welche Marschrichtung AMD geht.

Mehr Kohle, mehr Know How, mehr Mitarbeiter, mehr von allem.
Und jetzt will so ein professionelles Unternehmen uns ernsthaft verklickern das sie in dem Geschäft wo sie immer Marktführer waren gefailt haben? Und das jetzt schon seit, keine Ahnung, 5 Jahren?!?

Das macht für mich keinen Sinn ohne das es dafür einen triftigen Grund gibt. Und der Grund kann kaum Know how sein. Deswegen frage ich so gezielt danach.

Ex3cut3r
2019-04-25, 01:00:55
Bei Intel ging es doch in den letzen Jahren in der Führungsebene hoch und runter. Stichwort Krzanich: https://www.heise.de/newsticker/meldung/Unangemessene-Mitarbeiter-Beziehung-Intel-CEO-Krzanich-tritt-zurueck-4089393.html

Er wollte halt lieber eine Mitarbeiterin bumsen, anstatt weiterhin das Weltunternehmen zu managen, man dachte sich wohl mit Haswell/Skylake hat AMD auf Jahre keine Antwort.

Im Januar 2019 hatte man immer noch keinen neuen CEO: https://www.golem.de/news/intel-suche-nach-neuem-ceo-soll-bald-beendet-sein-1901-138721.html

x-force
2019-04-25, 01:14:15
Mehr Kohle, mehr Know How, mehr Mitarbeiter, mehr von allem.
Und jetzt will so ein professionelles Unternehmen uns ernsthaft verklickern das sie in dem Geschäft wo sie immer Marktführer waren gefailt haben? Und das jetzt schon seit, keine Ahnung, 5 Jahren?!?

Das macht für mich keinen Sinn ohne das es dafür einen triftigen Grund gibt. Und der Grund kann kaum Know how sein. Deswegen frage ich so gezielt danach.

mismanagement gibt es überall, warum sollte intel davon befreit sein?
die leute an der spitze haben idr keinen plan vom kerngeschäft und müssen etliche analysten bestellen um überhaupt zu wissen, was im eigenen labor entwickelt wird.

deiner argumentation nach hätte ja so gut wie kein marktführer seine einmal erlangte stellung verlieren dürfen.

unterm strich ist es imo eine mischung aus profitsucht(börse), arroganz, überheblichkeit und anderen fehleinschätzungen.

gravitationsfeld
2019-04-25, 01:47:57
Das bezieht sich auf den Fertigungsprozess, ob AMD jetzt fabless ist oder nicht ist ja unerheblich dafür. Man hat eben die richtigen Entscheidungen getroffen. ;) Ryzen teurer heißt ansonsten weniger Marktanteile, genau deswegen war, ist und wird Ryzen in (naher) Zukunft mit einer aggressiven Positionierung verkauft.

AMD wird in diesem Jahr 7nm-CPUs anbieten, Intel weiterhin nur 14nm+++++++.
Im nächsten Jahr dann 7nm+ bei AMD und 14nm++++++++ bei Intel.
Im Jahr darauf dann 6nm/5nm bei AMD und augenscheinlich 14nm+++++++++ bei Intel.

Das wird schon in diesem Jahr ein Nachteil (gerade hinsichtlich des Verbrauchs), der bis 2021 immer massiver wird, je länger man es nicht auf die Reihe kriegt, den 10nm-Prozess vernünftig zum laufen zu bringen. Man kann nur hoffen für Intel, dass die Roadmap so nicht echt ist. Komplettes Desaster, wenn das vor 2022 wirklich nichts wird.
Richtig. Aber vergesst nicht, dass TSMC 7nm Intel 10nm entspricht. Wenn man das unterschlaegt klingt es viel drastischer als es ist.

Wenn Intel wirklich schon eine bessere Architektur am Start hätte und es nur an 10nm fehlt, hätten die schon längst an einer Portierung auf 14nm arbeiten sollen. Dass 10nm sich verzögert, wussten die doch schon vor Jahren, genauso dass es nicht absehbar ist, wann der Prozess laufen wird. Ich mein, die entwickeln überspitzt gesagt für jede Kernzahl eine eigene Maske, da müsste ein Backport doch drin sein?
So einfach ist das nicht. Die Architektur ist auf bestimmte Signallaufzeiten ausgelegt und die sind mit 14nm einfach nicht zu erreichen bei gleicher Frequenz.

Lehdro
2019-04-25, 01:53:40
Und der Grund kann kaum Know how sein.
Der Grund ist folgender: Lack of vision, shitty Management. Intel hatte alle Zeit, alles Geld und alle Marktanteile der Welt und nicht besseres zu tun als sich selber auszubremsen - anstatt Innovation zu bringen gab es immer nur ein bissl mehr vom vorhandenen - natürlich pünktlich jedes Jahr zum selben Preis/Kern. Sowas ist ein Deadend und ein gutes Management erkennt sowas BEVOR es zu der heutigen Situation kommt. Brian Krzanich war stand heute der schlimmste CEO ever den Intel hatte. Es gab viel zu ambitionierte Pläne für 14nm und 7nm, aber anstatt den Fehler den man spätestens an der massiven Verspätung von 14nm, sowie der blamablen ersten Version der Fertigung (Broadwell Desktop anyone?) erkennen konnte geradezubiegen, machte man einfach weiter: Gab ja keine Konkurrenz. Ebenso bei der Architektur: Oh, AMD macht nur Bulldozermist? Zeit uns auszuruhen und die IGP aufs massivste aufzublasen bis die das Silizium nicht wert ist dass sie belegt.

Paar andere nennenswerte Böcke die man geschossen hat:
- komplettes Versagen bei den Auftragsfertigern mitzumischen
- kompletter Fail bei mobile Chips (Tablet / Handy)
- Anstatt Atom zur Alternative in dem Bereich aufzubauen, hat man es lieber als Abfall für die alten Fabs genutzt - die Konkurrenz hat derweile in Bleeding Edge Nodes produziert und "Atom" ist mittlerweile der Inbegriff für Langsamkeit
- absoluter Fail bei mobilen Modems (5G Desaster)
- Larrabee war Geldverbrennung², gleich mal mit Intel Xe neu probieren - nur paar Jahre nachdem man die vorhandenen Spezialisten gekickt hat ;D
- McAffee Kauf :freak:
- Mobileye für einen absurden Preis gekauft
- Intel Media :freak:
- absoluter Fail bei den Wearables (vorher noch schön Geld reingesteckt, dann direkt abgeschossen)
- IoT ebenso total verkackt
- 14nm Fabs auf ein 10nm umgerüstet von dem man wusste(!!!!) das es noch nichts taugt -> für 1 Milliarde wieder zurückgerüstet und massive Produktionsengpässe seit über 1 Jahr (sowas hat nichtmal AMD zu A64 Zeiten geschafft)
- Haufenweise Personal rausgeschmissen welches man jetzt wieder reinholt
- Roadmapdesaster: Intel Partner haben sicherlich großes Vertrauen in die Intelroadmaps die pünktlich für nächstes Jahr großes Verkünden was dann zuverlässig auf das jeweils nächste Jahr verschoben wird - mehrmals, wiederholt und überall. Versteht Intel überhaupt noch was eine Roadmap ist oder verwechseln die das da mit einem Wunschzettel?

Alleine der Faktor das intern niemand von den höheren Managementebenen CEO von Intel werden wollte spricht Bände, der Typ der jetzt CEO ist wollte das eigentlich auch nicht - hat er auch damals so gesagt als er interim CEO wurde.

AMD hat eben rechzeitig die Zeichen der Zeit erkannt und ist auf Chiplets umgeschwenkt und treibt den Markt zuverlässig in Richtung Multicore - egal ob Server, Desktop oder Konsolen. Sie sind dadurch viel flexibler, haben keine Fußfesseln mehr ("Real man have Fabs") und können sich daher aufs Kerngeschäft versteifen - Architekturen und Produkte, Fertigung lagert man aus an Leute deren Kerngeschäft eben dieses ist.

gravitationsfeld
2019-04-25, 02:16:04
Naja, die Goldmont Plus Atoms sind eigentlich ziemlich solide. Xe ist noetig, aber da hab ich auch meine Zweifel was den Erfolg angeht.

reaperrr
2019-04-25, 02:39:43
Wenn Intel wirklich schon eine bessere Architektur am Start hätte und es nur an 10nm fehlt, hätten die schon längst an einer Portierung auf 14nm arbeiten sollen. Dass 10nm sich verzögert, wussten die doch schon vor Jahren, genauso dass es nicht absehbar ist, wann der Prozess laufen wird. Ich mein, die entwickeln überspitzt gesagt für jede Kernzahl eine eigene Maske, da müsste ein Backport doch drin sein?
Ein solcher Backport kostet ordentlich Zeit und Resourcen, da viele uArch-Verbesserungen quasi in 14nm nochmal "neu" gemacht werden müssten. Ein Teil davon wird auch relativ viel Fläche/Saft kosten und auf prozess-seitige Verbrauchsreduzierungen gesetzt haben.
tl;dr: Hättest dann Kerne, die vielleicht 10-15% mehr IPC haben, aber 15-20% mehr Saft ziehen und/oder schlechter takten => fast gleiche Performance bei mehr Fläche und damit Kosten.

Und wenn sich die Fab-Leute bei Intel über die Jahre ein riesiges Selbstbewusstsein und Ego aufgebaut haben, werden die immer wieder an die höheren Tiere weitergegeben haben, "wir kriegen das hin, dauert nur noch ein paar Monate".

Hinzu kam noch, dass man bei Intel wohl auch dachte, Zen würde bestenfalls so ca. bei Nehalem-IPC und ~3 GHz landen.

N0Thing
2019-04-25, 02:47:55
Was genau bedeutet in diesem Kontext vorne? Bei der Fertigung? Leistung technisch ist man nicht vorne und die Fertigung ist ja nicht deren eigene. Wie kann AMD da vorne sein? Zumal die Marktanteile noch immer bei 80 zu 20% liegen? Ich sehe AMD noch immer weit hinten, zumindest im Desktop Bereich.
Und AMD backt noch immer kleine Brötchen sonst würde Lisa die Ryzens weit teurer machen, imo. Also sieht sich AMD selbst auch nicht vorne, möchte ich meinen.

Dass Intel die Fabs verkaufen müsste/sollte, ist meiner Meinung nach Unsinn, durch die große Anzahl an Chips, die bei Intel pro Jahr anfallen, ist eine eigenen Produktion wie auch bei Samsung weiterhin sinnvoll. Außerdem ist die aktuelle Fertigung von Intel auch nicht so schlecht, sonst würden sie im Notebook-Segment nicht gefühlt 99% Marktanteil haben. Im Desktop- und Server-Bereich ist AMD nun nach Jahren wieder eine Alternative, aber Underdogs brauchen neben überzeugenden Produkten auch Zeit, um die Marke mit gefühlter Qualität aufzuladen, deshalb auch die im Vergleich zu Intel niedrigeren Preise. AMD konzentriert sich momentan primär auf Server und Desktop, Intel auf Notebooks und Desktop, somit bedient jede Firma die Bereiche, in denen sie am meisten Geld verdienen kann. Falls Zen2 in der 7nm Fertigung überzeugen kann, könnte sich auch im CPU-Markt nochmals einiges verschieben.




Damit hast Du meine Frage nicht wirklich beantwortet. Intel schwimmt in Geld und meiner Ansicht nach können die kaufen was immer die wollen. Ob das Maschinen oder Mitarbeiter sind, und da ist auch ziemlich egal wie teuer die sind, Intel kann sich alles leisten. Wenn ich mir alles leisten kann aber es nicht umsetze und sogar einen Imageverlust riskiere, hat das einen Grund. Geld regiert die Welt und Intel weiß seit Jahren das sie in 10nm abstinken gegen TSMC oder wen auch immer. Als führendes Unternehmen, das es sich leisten kann, hätte ich doch schon vor Jahren zugesehen die Weichen für heute zu stellen.

Man kann halt nicht alles kaufen, nur weil genug Geld vorhanden ist. Zum einen muss das Objekt käuflich erwerbbar sein und zum anderen müssten die Besitzer auch zum Verkaufen bereit sein. Und selbst wenn dies der Fall sein sollte, müsste es auch noch von den Kartellbehörden abgesegnet werden, je nachdem, wie groß der Einfluss auf den Industriezweig wäre.

mczak
2019-04-25, 04:16:33
Es gab viel zu ambitionierte Pläne für 14nm und 7nm, aber anstatt den Fehler den man spätestens an der massiven Verspätung von 14nm, sowie der blamablen ersten Version der Fertigung (Broadwell Desktop anyone?) erkennen konnte geradezubiegen, machte man einfach weiter.
Also bei 14nm hat intel IMHO nicht so viel falsch gemacht. Klar der war dann im Endeffekt 1 Jahr zu spät oder so (weswegen dann Broadwell nie ein ganzes Lineup hatte). Aber der war trotzdem noch früher da als 16nm bei anderen Fabs und zudem ist der meines Wissens (na gut vielleicht auch bloss mit den neueren Varianten) immer noch besser als alles was die anderen Fabs unter dem Namen 11-16nm so rausgehauen haben. Die anderen Fabs hatten noch nicht mal was kompetitives gegenüber intel's 22nm zu diesem Zeitpunkt (was ich von TSMC 20nm halte brauche ich wohl nicht zu schreiben, auch wenn der bei der Packdichte mithalten konnte). Da hat man sich also mit Problemen rumgeschlagen die die anderen Fabs auch noch erst lösen mussten, von daher finde ich jetzt 1 Jahr oder so Verspätung nicht so übel.
10nm ist da eine ganz andere Geschichte, wenn man tatsächlich nicht mal 2020 oder sogar 2021 vernünftige Stückzahlen liefern kann wäre das dann wirklich eine massive Verspätung (5! Jahre), die intel in echte Probleme bringen könnte.

Denniss
2019-04-25, 04:33:36
Richtig. Aber vergesst nicht, dass TSMC 7nm Intel 10nm entspricht. Wenn man das unterschlaegt klingt es viel drastischer als es ist.Das war der ursprüngliche Plan mit dem dann nicht funktionierenden 10nm Prozeß. das was sie jetzt daran zu retten versuchen ist bei weitem nicht mehr so dicht gepackt.

mczak
2019-04-25, 04:51:42
Das war der ursprüngliche Plan mit dem dann nicht funktionierenden 10nm Prozeß. das was sie jetzt daran zu retten versuchen ist bei weitem nicht mehr so dicht gepackt.
Hast du da eine solide Quelle dazu? Es wurde zwar schon erwähnt dass der ursprüngliche 10nm im Eimer gelandet ist aber wirklich viel Informationen was der neue 10nm+ können soll habe ich noch nirgends gesehen. Wenn der etwas weniger dicht gepackt ist liegt der immer noch in der Region der Konkurrenz - und ausserdem ist reine Packdichte längst nicht alles. Meine Vermutung wäre schon dass der immer noch kompetitiv mit TSMC 7nm ist, bloss wenn die Produkte erst 2021 erscheinen spielt der Vergleich auch keine grosse Rolle mehr...

dildo4u
2019-04-25, 06:01:00
@Miaminice

Geld fixt nicht jedes Problem Intels Modem Sparte hat gerade Apple verloren.
Intel hat es nicht geschafft dort Qualcom einzuholen,du brauchst die richtigen Leute und bist natürlich am Arsch wenn dein Gegner in dem Bereich schon die kritischen Patente hält.