Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Xe3 "Celestial" (DG4, Arc C-Serie, 2026)
Leonidas
2023-10-01, 09:46:50
3DCenter News-Index zu "Celestial":
https://www.3dcenter.org/news/intel-celestial
https://www.3dcenter.org/dateien/abbildungen/Intel-Xe-Roadmap.vorschau2.jpg
Radeonator
2023-10-05, 12:11:13
Was mir bisher bekannt ist:
Release Date ab drittes Quartal 2026
Es wurde schon fleissig bei TSMC seitens intel vorbestellt
Fertigung in 3nm
Quellen:
https://www.tomshardware.com/news/intel-battlemage-celestial-gpus-tsmc-report
https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/News/Battlemage-und-Celestial-bei-TSMC-gefertigt-Release-1416887/
mocad_tom
2023-10-23, 16:01:06
Celestial DG4 wird Gerüchten zufolge ein Intel 18A.
Celestial DG4 18A (das große Enthusiast-Die 18A, das Midrange-Die bei TSMC)
Panther Lake 18A
Clearwater Forest 18A
Diamond Rapids 18A
Falcon Shores 18A
Nur ein kleiner Pipe-Cleaner Arrow Lake wird 20A nutzen.
Nur Sierra Forest und Granite Rapids wird Intel 3 nutzen.
Nur Meteor Lake wird Intel 4 nutzen.
Intel möchte wohl mit dem Haupt-Volumen von Intel 7 direkt auf Intel 18A hüpfen.
Intel 3/4 sind hybride(eng verwandte) Prozesse.
Intel 20A/18A sind hybride (eng verwandte) Prozesse.
Ich bin gespannt, ob nach Irland überhaupt noch eine weitere Fab Intel 3/4 fertigen wird. mMn bleibt es bei Oregon(dort wo der Prozess entwickelt wurde) und Irland als einzige zwei Standorte.
Ich bin auch gespannt, welche Standorte Intel 20A/18A bekommen werden.
Oregon ist klar und dann noch Arizona. Großes Fragezeichen hinter Israel.
Magdeburg (und Oregon) dann wahrscheinlich den Prozess nach Intel 18A und dieser Prozess dann mit High-NA EUV.
Xe3 dGPU wurde vor 1-2 Monaten gestrichen sagt Exist50. Für iGPUs wird Xe3 dagegen über mehrere Generationen hinweg in unterschiedlicher Form existieren, erwähnt wird auch eine Xe3p. Xe4 dGPU soll noch auf der Roadmap stehen, würde aber erst 2 Jahre nach der geplanten Xe3 dGPU kommen. Das wäre dann erst 2028 wenn man von 2026 für Xe3 ausgegangen wäre.
Xe3 dGPUs were canceled. Nothing's coming in that area.
How recent was that decision?
Month or two ago. Fallout from Intel's earnings.
So that PTL iGPU tile is the only segment where we’ll see Xe3?
Well there's also Wildcat Lake, Nova Lake, and Razor Lake. And who knows whether Xe4 will be ready beyond that.
Xe4 is coming though right in place of Xe3 dGPUs?
~2 years after Xe3 ones would have arrived, and potentially with some compromises.
https://www.reddit.com/r/hardware/comments/1g5l8md/comment/lsdzapr/
Bitte nicht ... :(
Aber schauen wir erst mal, was Battlemage soon(tm) auf dem Desktop-Schlachtfeld rupft.
MfG
Raff
=Floi=
2024-10-18, 23:32:21
Das ist intel!
Am ende wird nur X86 übrig bleiben und damit werden sie untergehen.
Exxtreme
2024-10-18, 23:39:45
War irgendwie klar. Andererseits, auch AMD kommt da nicht auf den grünen Zweig. Vielleicht sieht Intel hier absolut keine Chance. Auch wenn sie ein zusätzliches Standbein bräuchten.
vllt, verschwinden dGPUs mittelfristig ganz, da es sich immer weniger lohnt
fondness
2024-10-19, 09:47:04
Naja gut sie müssen halt sparen. Und das dgpu Segment kann für Intel mit aktuell 0% Marktanteil nur ein dickes minus Geschäft sein.
DrFreaK666
2024-10-19, 10:26:00
Wir sind selbst schuld, wenn wir sie nicht unterstützen
Shink
2024-10-19, 10:44:04
Wir sind selbst schuld, wenn wir sie nicht unterstützen
Naja die haben wohl nicht wirklich erwartet, dass ihre dGPUs wegen umsteigender Gamer bald mal rentabel sind, oder?
DrFreaK666
2024-10-19, 10:47:40
Wir brauchen deswegen nicht jammern, wenn wir nicht zugegriffen haben.
Sollte AMD sich irgendwann auch zurückziehen, dann gilt dasselbe
=Floi=
2024-10-19, 11:33:05
Wir sind selbst schuld, wenn wir sie nicht unterstützen
Dann kauf dir bitte einen überteuerten qualitativ schlechteren VW.
Intel, die puffbude hat über 60mrd an dividende ausgeschüttet und zu wenig ins unternehmen gesteckt. Beim treiber für die gpus hat man auch geschlafen.
Wenn sie dem wettbewerb nicht standhalten, sollen sie untergehen. So ist der markt.
Ich bin bei soetwas mittlerweilkke schmerzfrei.
bbott
2024-10-19, 17:35:32
Wir sind selbst schuld, wenn wir sie nicht unterstützen
Was bietet Intel denn dem Kunden an Mehrwert gegenüber den Mitbewerbern? Aus Mitleid kaufen? Die Käufer hat und braucht AMD doch schon :uhammer:
Dann kauf dir bitte einen überteuerten qualitativ schlechteren VW.
Intel, die puffbude hat über 60mrd an dividende ausgeschüttet und zu wenig ins unternehmen gesteckt. Beim treiber für die gpus hat man auch geschlafen.
Wenn sie dem wettbewerb nicht standhalten, sollen sie untergehen. So ist der markt.
Ich bin bei soetwas mittlerweilkke schmerzfrei.
Naja der Markt ist das eine- die Frage ist doch, wer soll da noch groß kommen in den Martkt? Wenn Intel es nicht hinbekommt- ein StartUp wirds nicht geben welches dir ne Alternative anbietet. AMD verliert immer mehr an Bedeutung und bei der Finanzmacht von Nvidia wird es immer schwerer da ran zu kommen. Guck dir doch die Mondpreise an- das wird so bleiben wenn niemand Konkurenz macht.
Nur um die Treiberentwicklung aufzuholen, das muss schon einer probieren der groß genug ist- wenn die sehen dass selbst Intel scheitert- wird es die Hemmschwelle zum Versuchen nur noch erhöhen
=Floi=
2024-10-20, 17:13:41
Aber ich finanzier intel nicht ihre gewinne, wenn die nix tun wollen! (ich hoffe auch die 10mrd förderung kommen für die nie zustande.)
Der erfolg kostet geld. Deren risiko und deren kosten! Wenn das produkt passt, wird es auch gekauft!
Bei den prozessoren das selbe. jedes detail kostet geld. Dann kaufe ich hald amd, wo ich kerne kaufe, cache und takt so dazubekomme bekomme.
Die könnten auch hier bei der gpu ganz vorne mitmischen, wenn sie denn wirklich wollten. Es gab so viele geschäftsbereiche, wo die firma gut war oder gut sein könnte. Es gab in der vergangenheit so brachial gute produkte von intel. Aber für die musste die firma auch was tun. Die israelis hatten so gutes designs entwickelt.
Bei der gpu fingen die bei null an! Zeit war egal. Das war ein gigantischer vorteil keine alten zöpfe zu haben.
Intel is still committed to Arc. Nothing changes today.
In client - simplifying the roadmap, fewer SKUs. How we are managing graphics, bigger integrated graphics, less need for discrete graphics.
https://x.com/IanCutress/status/1852111510874607641
Nothing changes und less need for discrete widersprechen sich ein wenig. Aber logisch, Gelsinger wird sich nicht hinstellen und sagen, wir haben Celestial dGPU gestrichen. Intel muss nur sparen, sie streichen sehr viel weg. Das Arc branding und die Architektur benutzen sie ja auch für iGPUs.
... wo sie mit Lunar Lake (Xe-2-IGP) ziemlich gut dastehen. Hoffen wir, dass der kleine Kampfmagier das ebenfalls packt. Da müssten doch mal ein paar neue Leaks kommen ...
MfG
Raff
Die Leaker sind sich nicht einig. Jaykihn sagt Celestial dGPU wäre geplant.
Last dGPU?
Desktop Celestial and Druid are as planned as ever.
I’m afraid you’ve gotten Intel’s commitment to laptop dGPUs and desktop dGPUs mixed up.
https://x.com/jaykihn0/status/1861785631896060319
konkretor
2024-12-04, 20:23:36
https://videocardz.com/newz/intel-confirms-xe3-architecture-is-baked-hardware-team-already-working-on-successor
dildo4u
2025-02-16, 14:25:41
Angeblich fertig Intel die DGPU Chips selber.
Panther Lake XE3 nutzt TSMC.
https://videocardz.com/newz/intels-next-gen-arc-celestial-discrete-gpus-rumored-to-feature-xe3p-architecture-may-not-use-tsmc
Die größere 12Xe3 nutzt TSMC N3E. Die kleinere 4Xe3 fertigt Intel selber in Intel 3. Die sind recht flexibel. Dass Celestial dGPU Xe3p verwendet (oder verwendet hätte), war mir bekannt. Ist nur die Frage, ob die wirklich noch kommt.
Von chipsandcheese eine Zusammenfassung der bislang bekannten Änderungen für die Xe3(LPG) Architektur.
Looking Ahead at Intel’s Xe3 GPU Architecture
(https://chipsandcheese.com/p/looking-ahead-at-intels-xe3-gpu-architecture)
robbitop
2025-03-24, 08:15:41
Ach gibts schon wieder die Aufteilung in LPG und HPG? Ich hatte gehofft, dass man das mit Xe2 endlich begraben hat?
basix
2025-03-24, 08:21:38
LPG ist architekturtechnisch praktisch das gleiche wie HPG, einfach auf Mobile optimiert. Das macht AMD bei RDNA ja auch. "HP" hat man ersatzlos gestrichen.
robbitop
2025-03-24, 08:30:01
Naja das letzte mal fehlte RT und die Matrix Cores bei LPG ^^
Das war schon ein ordentlicher Rückschlag. Und siehe NV und AMD (welche beide erfolgreicher sind als Intel bei GPUs) -> braucht es da wirklich eine separate uArch (bzw einen separaten branch) für mobile?
Aber egal: ich finde es sehr geil, dass Intel weiter R&D reinbuttert in GPU Research. Wie hier mit Xe3 zu sehen ist, wie mit Frame Generation zu sehen ist aber auch mit Frame Extrapolation. IMO ist ihre uArch aus high level moderner als die von AMD. Aber ggf. nicht schlagkräftiger. Wirklich schon fast tragisch, dass ihnen genau jetzt das Geld ausgeht dank des Versagens der Fertigung und ihrer CPU Abteilung.
Sie hätten damit mal 10 Jahre eher anfangen sollen - ich denke, dann wäre im GPU Markt Intel ggf wo ganz anders. Und Battlemage ist ja auch echt gut - aber komischerweise wird es nicht gekauft.
basix
2025-03-24, 08:36:57
Naja, AMD ist bei den mobile APUs jeweils auch hinterherhinkend mit den GPU-Architekturen. Es gab ewig Vega. Und momentan sind wir auf RDNA3 limitiert und es gibt Indizien, dass auch die Zen 6 APUs bei RDNA3 bleiben könnten.
Dass Battlemage nicht gekauft wird ist schade. B580 ist in deren Preisbereich ein guter Deal.
robbitop
2025-03-24, 09:41:27
Naja, AMD ist bei den mobile APUs jeweils auch hinterherhinkend mit den GPU-Architekturen. Es gab ewig Vega. Und momentan sind wir auf RDNA3 limitiert und es gibt Indizien, dass auch die Zen 6 APUs bei RDNA3 bleiben könnten.
Ja das stimmt. Wobei sie bei RDNA3 ja mit Phoenix auch flink waren und mit RDNA3.5 sogar IP seitig kurzzeitig technologisch vor der dGPU Sparte waren.
RDNA2 kam sehr spät und RDNA1 gar nicht.
Aber was das mit einer extra Mobile uArch zu tun hat, erschließt sich mir nicht :) Scheint eher eine Implementierungsgeschichte zu sein oder ggf. auch bewusste Entscheidung.
basix
2025-03-24, 10:34:48
Ist ein wenig wie Turing GTX vs. Turing RTX. Grundarchitektur ist die selbe, aber ein paar Features sind anders konfiguriert (Raytracing, Matrix-Cores). Optimierung auf Fläche und Energieffizienz. Und RT ist bei kleinen iGPUs performancetechnisch halt schon sehr fragwürdig. Mit einer Ausnahme: Es gibt mittlerweile ein paar Spiele, welche HW-RT als Voraussetzung mitbringen. Das ist aber mehr eine Kompatibilitätsfrage.
robbitop
2025-03-24, 10:43:10
Naja wobei man sagen muss, dass RT langsam nicht mehr optional ist. Es gibt jetzt schon eine Hand voll Spiele die ohne RT HW nicht mehr starten. AFAIK Metro Exodus EE und Indy. Und es werden mehr.
Allerdings denke ich dass Xe3 schon RT haben wird. Wäre interessant zu sehen, was sie rausnehmen. Oder ob es ggf. eher so ist wie N33 vs N31/32 wo man die CUs deutlich schlanker gehalten hatte und so ordentlich Transistoren sparen konnte.
basix
2025-03-24, 10:52:03
Es führen viele Wege nach Rom, ja ;)
Ach gibts schon wieder die Aufteilung in LPG und HPG? Ich hatte gehofft, dass man das mit Xe2 endlich begraben hat?
Gab es auch schon bei LNL. Viel sagt das nicht mehr aus. Für die dGPU war eine Xe3p Architektur im Gespräch.
Xe2LPG LNL CM_XE2_LPG
Xe2HPG BMG CM_XE2_HPG
Xe3LPG PTL CM_XE3_LPG
mindhunter
2025-06-11, 17:53:00
Wenn Celestial in 2026 in 18A erscheinen wird und Intel und AMD gerade noch bei N4 also 5nm ist, müsste das doch ein extrem großer Wurf werden? und total ungewöhnlich Grafikkarten in einem so aktuellen Node zu fertigen!? kann man sich also auf eine Markterschütterung einstellen?
robbitop
2025-06-11, 18:30:14
Nah erstmal muss Intel zeigen dass 18A gut performt und pünktlich kommt. Und 2026 erwarten wir dann auch schon UDNA und Rubin die jeweils auf einem neueren Node landen.
Aber es wäre super gut für den Markt wenn Intel was richtig Starkes hat und ordentlich GPUs verkauft.
aceCrasher
2025-06-11, 22:39:44
Nah erstmal muss Intel zeigen dass 18A gut performt und pünktlich kommt. Und 2026 erwarten wir dann auch schon UDNA und Rubin die jeweils auf einem neueren Node landen.
Aber es wäre super gut für den Markt wenn Intel was richtig Starkes hat und ordentlich GPUs verkauft.
Erwarten wir UDNA und Rubin wirklich 2026 schon? Das wären dann bei Beiden <24 Monate zur letzten Gen, das würde schon ziemlich aus der Reihe fallen. Ich denke eher dass wir UDNA und Rubin Q1 /Q2 2027 sehen.
AffenJack
2025-06-11, 23:02:53
Erwarten wir UDNA und Rubin wirklich 2026 schon? Das wären dann bei Beiden <24 Monate zur letzten Gen, das würde schon ziemlich aus der Reihe fallen. Ich denke eher dass wir UDNA und Rubin Q1 /Q2 2027 sehen.
Tendenziell schon, denn durch den Nodesprung wird der Wettbewerber unter Zugzwang gesetzt und kann sich keine großen Verzögerungen leisten. Bei Blackwell und RDNA4 gab es ohne Nodesprung am Ende eh nicht viel Bewegung.
Kommt allerdings auch drauf an, wie ausgebucht die Prozesse durch KI Chips weiter sein werden, aber ich hoffe bis dahin gibt es genügende Kapazitäten.
robbitop
2025-06-12, 08:49:59
Erwarten wir UDNA und Rubin wirklich 2026 schon? Das wären dann bei Beiden <24 Monate zur letzten Gen, das würde schon ziemlich aus der Reihe fallen. Ich denke eher dass wir UDNA und Rubin Q1 /Q2 2027 sehen.
Naja ob jetzt November/Dezember 2026 oder Januar 2027 für den Release ist doch praktisch ohne Bedeutung.
AMD hat RDNA4 launch nur taktisch verschoben - die wollten wie NV auf der CES Anfang Januar launchen. Das hat aber keinen Einfluss auf UDNA.
Intel wird auch nicht schneller als 24 Monate sein - also wenn es bei dem Offset bleibt hat Celestial wieder nur ~1..2...3 Monate mit der Lastgen und den allergrößten Teil seiner Lebenszeit mit Rubin und UDNA.
Intel announces future inference optimized data center GPU code-named Crescent Island (https://newsroom.intel.com/artificial-intelligence/intel-to-expand-ai-accelerator-portfolio-with-new-gpu)
About the GPU: The new data center GPU code-named Crescent Island is being designed to be power and cost-optimized for air-cooled enterprise servers and to incorporate large amounts of memory capacity and bandwidth, optimized for inference workflows.
Key features include:
Xe3P microarchitecture with optimized performance-per-watt
160GB of LPDDR5X memory
Support for a broad range of data types, ideal for “tokens-as-a-service” providers and inference use cases
Hier gibt es ein Bild: https://www.reddit.com/r/intelstock/comments/1o6nnm5/crescent_island_pictured/
Sieht nach 32 Xe3p Kernen aus.
Xe3p ist bei den Entwicklern als Xe3.5 klassifiziert.
This begins the support for the Xe3p arch - it contains generic support
for graphics version 35
https://lore.kernel.org/all/20251013-xe3p-v1-0-bfb74f038215@intel.com/
robbitop
2025-10-15, 06:57:40
Ein Jammer dass Intel so wenig Vertrauen in ihre GPU Abteilung hat. Bei der Verbesserungsrate (wenn man bedenkt dass die mit Arc fast bei 0 gestartet sind weil sie vieles über den Haufen geworfen haben von dem alten IGP Kram) wäre man mittelfristig sicher dran an den Wettbewerbern. Und jetzt geht man in ein paar Jahren mit Nvidia ins Bett. Klar hat ein Nvidia Sticker viel mehr Reputation - aber es entgeht einem Marge die Nvidia einsackt und die Produkte werden sicherlich eher teurer (Nv Tax). IMO hätte man vor dieser Entscheidung Druid abwarten können - bis dahin sollten sie es dann auch geschafft haben.
Wahrscheinlich sind die Zeiten ökonomisch zu schwer. Ggf hätte man all das 5-10 Jahre eher machen müssen als das Geschäft noch richtig lief.
genervt
2025-10-15, 07:59:51
Arc 1 war vom Lineup einfach zu ambitioniert. Dann kamen auch die zuvor unterschätzten Treiberprobleme. Und dann war das Geld weg.
Dabei hatte Intel das berühmte Window of Opportunity mit der GPU Preiskrise.
Die Koop mit NV hat sicher weniger sachliche Gründe als es vielmehr eine Investor-Story ist. Hoffen wir mal, dass die Inhouse GPU Entwicklung nicht zum Opfer fällt.
mocad_tom
2025-10-15, 14:36:49
Oneraichu schreibt 1280bit Speicherinterface
Also praktisch ein 6,666 mal so starkes Speicherinterface im Vergleich zur Arc B580 Battlemage.
Das wird spannend.
basix
2025-10-15, 14:59:20
1280bit? Eher 128bit, nicht? :)
Sieht eher nach 640 Bit aus.
Looks like 32 Xe3P, Big L2, 640bit LP5X. They are probably using x16 PCIe 6.0 for networking.
https://x.com/MCH2024/status/1978432049368223779
robbitop
2025-10-15, 15:45:01
Arc 1 war vom Lineup einfach zu ambitioniert. Dann kamen auch die zuvor unterschätzten Treiberprobleme. Und dann war das Geld weg.
Dabei hatte Intel das berühmte Window of Opportunity mit der GPU Preiskrise.
Naja Arc 1 war auch 1st gen. HW und SW. Da kann man nicht viel erwarten. Und ja das Ding war irre ambitioniert. Matrix Cores, fette RT Pipeline. Während RTG noch mit (gut funktionierender - vesser als Arc aber wenig ambitioniert IMO) last Gen HW rumlief.Aber halt 1st gen. Relativ zu einer zu erwartenden Entwicklungskurve von 0 heraus war alles was bis dato kam Applaus würdig. Man schaue mal was andere GPU Schmieden abseits AMD/NV mit ihren GPU Auftritten geleistet haben. Und wie Intel da rein gehauen hat. Treiber wurden immer besser und besser und es gab neue features
Ich denke die Erwartungen waren unrealistisch.
Shink
2025-10-15, 15:57:09
Naja, Arc war DG2. DG1 war 1st gen.
DG1 war einfach nur die TGL-U iGPU in dedizierter Form. Das war höchstens ein Testlauf damals für die Arc dGPUs. Intel selber wertet das nicht als 1st gen.
basix
2025-10-15, 16:36:10
Sieht eher nach 640 Bit aus.
https://x.com/MCH2024/status/1978432049368223779
640bit, wow. Bei LPDDR5X 12.7 Gbps macht das 1.0 TByte/s Bandbreite. So viel wie eine RTX 4090 oder RTX 5080.
Aber warum "nur" 160 GByte? 320 GByte müssten ohne Probleme gehen mit 10x 32 GByte.
Wenn AMD und Nvidia hier nur 128 GByte liefern können (512bit mit GDDR7), schafft sich Intel da eine schöne Nische. Mehr und günstigerer Speicher.
robbitop
2025-10-15, 16:43:40
DG1 war einfach nur die TGL-U iGPU in dedizierter Form. Das war höchstens ein Testlauf damals für die Arc dGPUs. Intel selber wertet das nicht als 1st gen.
So ist es. Arc war die erste richtige 1st gen. Deshalb hat man auch mit A für Alchemist angefangen dann B für Battlemage, C für Celestial und D für Druid.
Das war schon ein ordentlicher reboot. Die erste XeLP die es dals DG1 Variante gab war IIRC nur eine umgelabelte Gen12 die ohnehin schon in der Entwicklung war.
robbitop
2025-10-15, 16:45:41
640bit, wow. Bei LPDDR5X 12'700 Gbps macht das 1.0 TByte/s Bandbreite. So viel wie eine RTX 4090 oder RTX 5080.
Steht das mit den 12,7 MT/s irgendwo? Ist schon recht hoch. In der freien Wildbahn sieht man ja aktuell eher ~2/3 davon.
basix
2025-10-15, 17:19:45
Steht nirgends. Aber Produkte mit 10'700 findet man bereits (z.B. Snapdragon Elite Gen 5 (https://www.computerbase.de/news/prozessoren/snapdragon-8-elite-gen-5-im-benchmark-qualcomm-schlaegt-apple-erstmals-bei-single-core-leistung.94437/)) und 12'700 sind angekündigt. Es lagen ~10 Monate zwischen beiden Ankündigungen (April 2024 und Februar 2025), weswegen Mitte nächstes Jahr für 12'700er realistisch sein dürften.
Nicht, dass Intel zwingend so schnelle Speeds verbauen wird. Aber das ist das technisch machbare. Wenn man das schon als High Bandwidth Datacenter GPU ankündigt wird das ja wohl kaum nur 8533er LPDDR5X sein ;)
robbitop
2025-10-15, 18:26:20
Ah ok so meinst du das :)
mocad_tom
2025-10-15, 20:42:07
https://x.com/OneRaichu/status/1978307414240677971
> It looks like it will support 1280-bit LPDDR5X.
> 40x32 Bit in pic.
Oneraichu ist halt auf Twitter hinter einem Schloß.
Der plaudert Internas von Intel teils 2 Jahre vorher raus.
https://x.com/OneRaichu/status/1978307414240677971
> It looks like it will support 1280-bit LPDDR5X.
> 40x32 Bit in pic.
Oneraichu ist halt auf Twitter hinter einem Schloß.
Der plaudert Internas von Intel teils 2 Jahre vorher raus.
Er hat keine Infos, das ist nur seine Einschätzung vom Render Bild. In dem Fall kein Mehrwert gegenüber anderen. Er wurde schon berichtigt, wahrscheinlicher sind 640 bit. Das hält er auch für möglich.
robbitop
2025-10-16, 08:55:52
Wenn man in Betracht zieht wie viele Xe Cores enthalten sind und wie viel Bandbreite bereits mit 640 bit vorhanden ist (siehe basix' Post), sollte das doch gut passen. Ab einem gewissen Punkt bringt mehr dann nicht mehr so viel mehr.
Leonidas
2025-10-16, 12:02:39
Bedeutet natürlich: Keine Zweitverwendung eines Celestial-Chips, sondern dedizierte Entwicklung. Ähnlich wie Rubin CPX also.
basix
2025-10-18, 10:07:14
1280bit LPDDR5X mit 12'700 MT's wären sogar exakt Rubin CPX, nämlich 2 TByte/s ;)
Zu so einem fetten SI passen aber die angeblich "nur" 450mm2 nicht.
Bedeutet natürlich: Keine Zweitverwendung eines Celestial-Chips, sondern dedizierte Entwicklung. Ähnlich wie Rubin CPX also.
Time will tell, ob das auch Gaming Chips sein werden. Bei Celestial wie auch RDNA5 AT0 und Rubin CPX ;)
Wenn das Renderbild korrekt ist, bekommt Xe3p übrigens 50% mehr EUs pro Xe Kern. Es sind 12 EUs statt 8 EUs in Xe2/Xe3.
mocad_tom
2025-10-19, 12:53:17
Ich glaube wir müssen eher Lunar Lake als Referenz für den Memory Controller heranziehen, weil der ein LPDDR5(X) only design hatte.
https://x.com/_wildc/status/1745244534978592784
https://x.com/Kurnalsalts/status/1841497643178148185
Und bei LNL ist Memory PHY aber nur ein schmales Streifchen.
Also habe ich das mal anders arrangiert
https://x.com/p1cturedump/status/1979836934739644705
https://x.com/p1cturedump/status/1979831359993782325
Oben beim ersten Bild(von Wild_C) sieht man ja auch die On-Package-RAM-Chips von Lunar.
Bei einem 16GB Lunar sind zwei RAM-Chips mit jeweils 8gb drauf.
Sie müssen bei Lunar den Memory Controller nicht zweigleisig aufstellen (SO-DIMM + LPDDR5), sondern PHY kann nur LPDDR5 bedienen.
Ähnlich wie beim M4 zum M4 Max.
M4 kann LPDDR5X / M4 Max kann LPDDR5 (ohne X).
Bei M4 baut man zweimal 8GByte-Chips mit LPDDR5X-7500 auf das Package und taktet sie etwas höher.
Bei M4 Max baut man 4x LPDDR5-6400 Chips mit je 32GByte Chips drauf -> 128GB.
Ich finde es immer lustig, wenn man meint, man müsste Oneraichu auf twitter berichtigen, weil man weiß es ja besser.
https://x.com/p1cturedump/status/1979843427560046710
Oneraichu hat im Februar geleakt, dass es Xe3p in Celestial geben wird - er war auch derjenige, der Portionsweise Xe3p immer wieder ins Gespräch gebracht hat.
Sprich Oneraichu hat Quellen. Er formuliert immer gerne etwas kryptisch, so dass man mehr reindeuten kann.
Das Verhältnis höhe zu breite passt bei den PHY von Crescent Island irgendwie nicht.
Ich denke dass die da tatsächlich ein 1280 bit interface gemacht haben.
Aber sie treiben die Kanäle mit so niedrigen Spannungen an, dass sie nur 8GByte Chips einsetzen können.
64bits mal 20 LPDDR5X-7500 mit 8GByte je Speicherchip
Das sind dann 160GByte. Das ganze läuft aber nur, weil man keine hohen Taktraten, SingleRank, single chip per channel, niedrige Spannungen und kleine 8GByte-Chips hat.
Das musst du unterscheiden. Die 1280 Bit sind kein Leak von ihm, sondern auch nur eine Einschätzung vom Renderbild aus. Das ist was völlig anderes. Wie gesagt, die "korrigierten" 640 Bit hält er selber für möglich.
mocad_tom
2025-10-19, 19:43:34
Der macht das immer so.
Er kennt interne Dokumente und verpackt sein wissen in eine "Vermutung".
Dabei nimmt er sich dann gerne eine wilde Spekulation von jemand anders und packt Inhalt dazu.
Er hat ja z.B. auch den 18AP Prozess bei den Nova Lake IGPU geleakt.
Oder das da:
https://x.com/OneRaichu/status/1838173194123174059
Im Oktober 2023 postet er
> rapnrt
R aptor
A rrow Nov 24
P anther Dec 25
N ova Nov 26
R azer Oct 27
T itan Oct 28
Er kannte im Oktober 2023 Titan Lake.
Nein das macht er nicht immer so! Vor kurzem wolltest du uns noch eintrichtern, dass sich Xe3 und Xe3P nur im Herstellungsverfahren unterscheiden.
mocad_tom
2025-10-21, 10:57:36
https://x.com/aschilling/status/1978182687840968996
LPDDR5X ist fakt, weil das steht ja schließlich auch direkt auf dem Slide.
Ich war mir nicht bewusst, dass es einen dermaßen großen Unterschied zwischen LPDDR5X-8533 und GDDR7 gibt.
Memory bandwidth Battlemage B580:
192bit 456GByte/s (GDDR6)
Memory bandwidth Battlemage B770 (vermuteter Wert, wenn sie denn kommt):
256bit 608GByte/s (GDDR6)
Memory Bandwidth Lunar Lake
128bit 136,5GByte/s (LPDDR5X-8533)
Memory Bandwidth 5090
512bit 1792GByte/s (GDDR7)
------------------------------------------
Ein Crescent Island mit 640bit
640bit 682,5GByte/s (LPDDR5X-8533)
Ein Crescent Island mit 1280bit
1280bit 1365GByte/s (LPDDR5X-8533)
Ein Crescent Island mit 640bit hätte nur 12%mehr Bandbreite als ein hypothetischer Battlemage B770.
(Quelle für Lunar Lake https://x.com/IanCutress/status/1877085535975387452 )
Im übrigen ist der 256bit LPDDR5X Memory von nvidia digits AKA nvidia GB10 der Grund warum das Ding nicht abgeht wie Schmitts Katze(von den Execution Units her hätte die igpu eine Leistung wie ca. eine 5070, vom Speicher Interface aber nur 40% -> 5070:672GByte/s / GB10: 273GByte/s ).
Exxtreme
2025-10-21, 11:04:11
Ich war mir nicht bewusst, dass es einen dermaßen großen Unterschied zwischen LPDDR5X-8533 und GDDR7 gibt.
Jau. DDR-RAM ist latenzoptimiert während GDDR-RAM bandbreitenoptimiert ist. Die Latenzen von GDDR-RAM sind richtig übel.
robbitop
2025-10-21, 12:45:44
Ich war mir nicht bewusst, dass es einen dermaßen großen Unterschied zwischen LPDDR5X-8533 und GDDR7 gibt.
Naja 8533 MT/s vs 28.000 MT/s (aktueller GDDR7 Speicher). GDDR ist traditionell eigentlich immer massiv schneller von den MT/s.
dildo4u
2025-10-22, 09:04:01
Längeres Interview mit Tom Petersen zu Xe3.
P2AsCkKi-vs
Längeres Interview mit Tom Petersen zu Xe3.
https://youtu.be/P2AsCkKi-vs
So from my perspective, I know that we've announced an Xe3P architecture and that is a more substantially different architecture than Xe3 was versus Xe2.
Dann hätten sie Xe3p besser Xe4 nennen müssen oder Xe3 als Xe2p/Xe2.5. Aber das sind Entscheidungen, die vor Jahren getroffen wurden, wie er dort anmerkt.
robbitop
2025-10-23, 12:28:10
Vom Releasezeitraum her aber merkwürdig. Ggf. fließt da auch der Einfluss auf HPC Fokus mit raus. Ist also nicht unbedingt wesentlich neuer als Xe3 aber deutlich anders. Nicht notwendigerweise besser für 3D Rendering.
ggf ähnlich wie bei Nvidia. Da sind die HPC uArchs auch anders aber nicht neuer/besser - tragen aber auch den gleichen Codenamen wie die Graphics uArch.
Fokus für HPC macht wenig Sinn für Intel, eine getrennte Entwicklung kann sich Intel gar nicht mehr leisten. Die Architektur kommt ja auch für iGPUs und Celestial dGPU, wenn die noch kommt. Angeblich wurden einige Xe4 Features backported für Xe3p.
robbitop
2025-10-23, 12:51:43
Ich bin mir nicht sicher, ob das keinen Sinn macht. Der AI Markt ist eine förmliche Goldgrube wo es viele viele Milliarden zu verdienen gibt. Und eine 3D GPU muss man für IGPs ja sowieso bauen. Ich könnte mir vorstellen, dass man den dGPUs mittelfristig (leider!!) den Stecker zieht und was 3D IGPs also angeht bei Xe bleibt. Aber ggf nimmt es (leider!) dann die alte Rolle ein. IGP für low end bzw Büromaschinen und die dickeren GPUs dann mit Nvidia chiplets (was sehr schade wäre). Ich will das nicht hoffen aber ein wenig sieht es so aus als könnte das so kommen.
Entsprechend kann man die GPU devision gut zu AI pivoten (bzw hat das ggf im Falle von Xe3P auch schon gemacht - oder teilweise gemacht).
y33H@
2025-10-23, 18:06:31
Die GPUs sind ja schon jez der AI Group zugeordnet.
robbitop
2025-10-23, 18:11:11
Das sagt eigentlich schon alles. Sehr schade. Es war erkennbar dass die 3D GPUs so langsam interessant wurden.
y33H@
2025-10-23, 19:36:14
Das ändert nix an der Entwicklung von Graphics IP.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.