Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Chipfertigung: 10 FF, EUV, 7 nm, 5 nm, 3 nm, GAF, A18, A16, A14 ...


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19

mocad_tom
2025-08-18, 08:54:10
Make 450mm Wafer great again.

Die Geräte können eigentlich in X und Y quadratisch angesteuert werden.

Haben dann aber wegen des runden Wafers so viel verschnitt.

https://www.computerbase.de/news/prozessoren/450-mm-wafer.58092/

Also nimmt man jetzt einen 450mm Wafer und macht den zuerst mal eckig.

In ein etwas umgebautes FOUP könnte dann auch ein eckiges Panel reinpassen:

NvBB2T8NHzY

Skysnake
2025-08-18, 12:00:53
B3i eckigen Wafern hast du aber Probleme bei den nassen Beschichtungsprozessen.

Ich habe erhebliche Zweifel dass das ne gute Idee ist.

mocad_tom
2025-08-18, 12:16:15
Das müssen ja wahrscheinlich bloß passive Base-Dies werden.

In dieses Glassubstrat packt man auch nix besonderes rein.

Die 5nm/3nm/2nm bleiben alle rund.

Aber dort wo man ein Base-Die braucht ...

Wäre halt interessant, was die da für ein Bump Pitch / Raster für die Kontaktierung hinbekommen.

basix
2025-08-18, 15:27:18
B3i eckigen Wafern hast du aber Probleme bei den nassen Beschichtungsprozessen.

Ich habe erhebliche Zweifel dass das ne gute Idee ist.

Ja, sehe ich auch so.

Wie erzeugt man eigentlich die elektrischen Chiplet-to-Chiplet Verbindungen auf dem rechteckigen Panel? Unterscheidet sich der Prozess bei Interposern verglichen zu normalen Chips so stark, dass man vom runden Wafer wegkommen kann?

Nightspider
2025-08-18, 15:40:31
Gab es eigentlich auch mal Ansätze von leichten Vergrößerungen der Wafer?

Also beispielsweise 350mm? Diese 5cm mehr würden ja schon viel mehr Chips ausspucken.

KarlKastor
2025-08-18, 16:57:09
Ich denke, das ist wenig interessant. Man benötigt neues Equipment und hat wenig Gewinn. Wenn man schon alles neu macht, dann wenigstens mit großen Vorteilen.

amdfanuwe
2025-08-18, 17:01:59
Wie erzeugt man eigentlich die elektrischen Chiplet-to-Chiplet Verbindungen auf dem rechteckigen Panel? Unterscheidet sich der Prozess bei Interposern verglichen zu normalen Chips so stark, dass man vom runden Wafer wegkommen kann?

Wo habt ihr das Problem mit dem Eckigen? Da wird ein RDL auf einem rechteckigen Glas Substrat aufgebracht. Wie entstand denn der RDL bei RDNA3? Die Chipträger mit RDL sind auch rechteckig. MI300 sollte doch auch einen RDL bekommen, scheiterte aber wohl wegen der Größe. Glas hat da stabilere Eigenschaften.
Der RDL arbeitet im Bereich von µm, das ist eine ganz andere Größenordnung als die Strukturen im nm Bereich in einem Chip.

Zu den Daten gibt es hier etwas: https://www.samtec.com/de/s2s/microelectronics/glass-core-technology/

Skysnake
2025-08-18, 17:23:02
Ganz einfach. Der Lack bildet schon bei einem runden Wafer einen Wulst aus der Probleme mit der Belichtung am Rand macht. Ein eckiger Wafer machts nicht besser.

basix
2025-08-18, 17:54:49
Zu den Daten gibt es hier etwas: https://www.samtec.com/de/s2s/microelectronics/glass-core-technology/

Dein Link zitiert 15um und in Zukunft 10um Pitch für den RDL (die Leiterbahnen). Das kann man mit additiven Verfahren machen, wie sie auch bei Highend PCBs zum Einsatz kommen. Subtraktive Verfahren machen bei 30um dicht. 0815 Standard-PCBs liegen bei 150um Trace-Pitch und die verwenden oft Panel in der im CB-Artikel genannten Grössenordnung (750 × 620 mm)
https://www.gs-swiss.com/en/technologies-and-products/msap-and-sap-technology
https://www.gs-swiss.com/bilder/technologies-products/msap-sap/258/image-thumb__258__imageSlider/ProcessStepsSubtractive_mSAP_SAP_16_9_en~-~media--43e6c79a--query@2x.27d20ef0.webp
Jetzt wo ich die Daten lese machen so grosse Pitches auch Sinn. Sogar 3D-SoIC liegt bei 4...9um Via-Pitch. Aber auch bei den RDL Verfahren von oben kommt irgendwann mal ein Photoresist drauf, und der verteilt sich schlicht deutlich gleichmässiger auf einer rotierenden Scheibe. Aber da die Pitches verglichen zu Logik-Chips um ~2x Grössenordnungen auseinanderliegen, ist ein rechteckiges Panel anscheinend gut genug.

Zu RDNA3's Infinity Fabric Fan Out Links kennt niemand zufällig den Pitch? Angstronomics meint Bump-Pitch = 35um und das wäre kompakter als bei HBM3. Trace-Pitch läge damit bei ~4um: https://www.angstronomics.com/p/amds-rdna-3-graphics

Tobalt
2025-08-18, 18:40:00
Ganz einfach. Der Lack bildet schon bei einem runden Wafer einen Wulst aus der Probleme mit der Belichtung am Rand macht. Ein eckiger Wafer machts nicht besser.

Die Lacke sind sehr dünn, eher vergleichbar mit EBL Lack.. Die Wulst "rückstaut" in meiner Erfahrung weniger als 1 mm vom Rand, egal ob rund oder quadratisch.

Orko
2025-08-18, 18:58:24
Ich würde Glassubstrate prozesstechnisch eher bei Leiterplattentechnologie statt Wafertechnologie einordnen. Vielleicht noch als geeigneten Mix aus beiden Welten.

Leiterplatten werden z.T in quadratmetergrossen Panels gefertigt. Belackung erfolgt bei Wafern traditionell per Waferschleuder, und dort ist der Waferrandbereich kritisch. Mit der dry-resist Technologie steht aber auch eine Option bereit die für die Lackaufbringung ohne Nass-Chemie auskommt. Bei Leiterplatten sind übliche Optionen der Curtain-Prozess ("Wasserfall-Prozess"), Siebdruck oder auflaminierte Folie.

Bei Leiterplatten ist ein limitierender Faktor für geringe Strukturgrössen der Leiterbahnen das Substrat an sich. Durch den Glasfasermatten-Harz-Verbundwerkstoff sind die Oberflächen uneben, das Panel irgendwie immer etwas verzogen, und die Dicke nicht allzu konstant. Glaspanels stellen in diesen Bereichen eine wesentliche Verbesserung dar.

Orko
2025-08-18, 23:02:29
Wafergrössen:
Aktuell übliche Waferdurchmesser 150mm (6 zoll) und 200mm (8 zoll) und 300mm (12 zoll)
Hochvolumige Massenproduktion dabei durchgängig auf 300mm.
Seit Jahr(zehnt)en in Diskussion: 450mm (18 zoll)

Die ursprüngliche Idee war, dass der komplette Wafer immer auf einmal prozessiert wird (Batch Prozesse). Je größer der Wafer desto billiger die Prozesskosten pro Fläche bzw pro Chip. Bei Wafern für z.B. CPUs sind wir aber für einige Prozesse schon lange von diesem Ideal entfernt. Belichtet wird z.B. Stück für Stück (Recticle Limit). Ein größerer Wafer reduziert deshalb die Prozesszeiten bzw -Kosten hier nur marginal (wegen den Handlingzeiten für Wafer Loading / Unloading). Auch Laser-Prozesse, Vereinzelung und Chip-Testing sind keine Batch-Prozesse. Für nasschemische Prozesse (Ätzen, Reinigen) skalieren die Kosten ziemlich direkt mit der Wafergröße. Für Plasma-Prozesse, ALD, ALE, etc wird es schwieriger, bei größerem Wafer eine ausreichend geringe Prozess-Streuung einzuhalten.

Etwas allgemeiner betrachtet:
Zu fertigende Strukturgrößen (z.B. M1 Pitch) und Panel bzw Wafergröße sollten ein günstiges Verhältnis haben. Passen zu wenige Chips auf den Wafer sinkt der Ertrag weil Prozesskosten auf zu wenige Chips umgelegt werden. Ist der Wafer zu groß, wird die Prozesskontrolle schwieriger (Parameter in bestimmten Grenzen über die komplette Chipfläche zu halten) und der Yield sinkt.

Durch die immer weitergehende Reduzierung der minimalen Strukturgrößen in den letzten 25 Jahren sank der Druck immer mehr, auf größere Waferdurchmesser zu wechseln. Die Kosten für eine Umrüstung einer Produktionslinie / einer Fabrik auf einen größeren Waferdurchmesser betrifft aber alle Prozesse, auch die Prozesse die von einer solchen Maßnahme gar nicht profitieren würden. Beispiel: Was würde (wenn denn überhaupt möglich) das Umrüsten einer EUV-Anlage auf 450mm Wafer kosten? Die Prozesszeiten pro Wafer bzw Chip würden sich wenn dann nur minimal reduzieren. Also Kosten ohne Nutzen.

Ich kann die sich zuhnehmend zementierende Entscheidung gegen 450mm Wafer also gut nachvollziehen.

Diese Betrachtung betrifft aber nur Produkte mit minimalen Strukturgrößen.
Fertigung von Interposern, optischen Chips, Leistungsbauteilen etc könnten durchaus von einem größerem Waferdurchmesser profitieren, wenn das Volumen ausreichend groß und die mittelfristige Nachfrage ausreichend stabil ist.

basix
2025-08-18, 23:15:53
Prozesskontrolle / -streuung ist neben Investitionskosten der grösste Hemmschuh für 450mm Wafer. Beides ist bei Leading Edge besonders wichtig. Und wenn Leading Edge nicht voranprescht, wird Trailing Edge auch nicht wechseln.

Für Packaging wie Interposer oder Substrate sind die Anforderungen geringer. Aber auch dort geht man nur von Wafern auf Panel, weil die ML/AI/HPC Chips das Geld für die Investitionen mitbringen und in den nächsten paar Jahren die Fläche von einem Wafer vermutlich übersteigen werden (siehe TSMC SoW-X, das ist erst der Anfang).

gnahr
2025-08-19, 13:41:00
Ganz einfach. Der Lack bildet schon bei einem runden Wafer einen Wulst aus der Probleme mit der Belichtung am Rand macht.du kannst gern das jahr 1999 hinter dir lassen und dich spray coatings öffnen. spin coating ist nicht alleine auf der welt.

disco wirbt übrigens damit 450mm ready zu sein in japan. es fehlen nur die kunden um das geld auf den tisch zu legen und sich die rohlinge liefern zu lassen.

Badesalz
2025-08-25, 19:56:35
Die sind auch wieder dabei :rolleyes: Ich hab das Zeug immer sehr gemocht da alles was sie angefasst haben immer richtig gut war

Auch wenn das jetzt wohl nicht irgendein "edge" sein wird
https://www.youtube.com/watch?v=0ybDbElLnE0

basix
2025-08-27, 11:48:39
Sehr interessante Hot Chips 2025 Präsentation von Lightmatter:
https://www.servethehome.com/lightmatter-passage-m1000-at-hot-chips-2025/

Sie erstellen herbei einen optischen Interposer für den Interconnect zwischen Accelerator-Chiplets ("Passage"). Und da optische Links bereits integriert sind, bekommt man fast gratis optische Interconnects für Scale-Up (als Ersatz für elektrische NVLink oder Infinity Fabric Link Verbindungen). Sozusagen super-integrierte Co-Packaged-Optics (CPO).
https://www.servethehome.com/wp-content/uploads/2025/08/Lightmatter-Passage-M1000-at-Hot-Chips-2025-_Page_10.jpg

Und auch spannend:
Lightmatter hat ein Demo-Kit mit einem laufenden Prototypen gezeigt (Referenzplattform) und die Technologie sei "Production Ready".

Badesalz
2025-08-27, 12:17:05
Lasst uns beten, daß Nv die nicht nächste Woche kauft :usad:

smalM
2025-08-28, 16:30:45
Lasst uns beten, daß Nv die nicht nächste Woche kauft :usad:
Direkt bar aus der Hand...

HOT
2025-08-31, 16:33:44
https://www.techpowerup.com/340408/tsmc-accelerates-1-4-nm-plans-targets-2027-pilot-runs

Damit passt A14 jatzt zum Zen7-Launch.

mboeller
2025-08-31, 17:07:48
https://www.servethehome.com/marvell-shows-dense-sram-custom-hbm-and-cxl-with-arm-compute-at-hot-chips-2025/

Marvell behauptet, dass sie die SRAM-Density bei TSMC 2nm verdoppeln können, oder die Bandbreite 17x größer wird mit ihrer IP

https://www.servethehome.com/wp-content/uploads/2025/08/40_Marvell_Kuemerle_final-10.jpg

Skysnake
2025-09-01, 07:42:37
Das ist jetzt aber auch ziemlich reiserisch. Da wird schon area und bandwidth als Bezugsgeöß3 gemischt...

Wie kann ich bitte die halbe Fläche bei gleicher Bandbreite haben oder 17x mehr Bandbreite bei gleicher Fläche????

Das ist doch aus dem Zusammenhang gerissener Bullshit..

mboeller
2025-09-01, 08:32:37
Das ist doch aus dem Zusammenhang gerissener Bullshit..

ist 1 Folie aus dem Foliensatz von der Hotchips 2025. Der Rest ist ja unter dem Link zu finden.

Kriegsgeier
2025-09-01, 08:40:26
Wie funktioniert EUV-Lithografie? Im Inneren der fortschrittlichsten Maschine aller Zeiten

von Branch Education:

https://www.youtube.com/watch?v=B2482h_TNwg

Schon angeschaut? Wahnsinn hoch 10!

basix
2025-09-01, 17:24:55
Beeindruckende Produktionsqualität des Videos.

Ich würde behaupten ich kenne mich einigermassen mit Lithographie aus, aber im Video sind doch einige Infos enthalten, die ich so noch nicht gekannt hatte. Z.B. die Facet Mirrors, welche mit Subsegmenten das Photoabbild wechseln können, je nachdem ob vertikale/horizontale Linien oder Vias belichtet werden.

Absolut beeindruckende Wissenschafts- und Ingenieurskunst, was ASML da leistet.

Lurtz
2025-09-01, 17:57:52
Absolut beeindruckende Wissenschafts- und Ingenieurskunst, was ASML da leistet.
Thanks for mentioning ASML sponsoring this. I was about to buy an EUV machine from another vendor

;D

Complicated
2025-09-02, 18:14:20
Heftiger Move von der US-Regierung:
https://www.computerbase.de/news/wirtschaft/samsung-und-sk-hynix-us-regierung-will-fab-aufruestungen-in-china-unterbinden.94128/
Neue Bestimmungen der US-Regierung würden SK Hynix, Samsungs und TSMCs Fabriken in China treffen. Aufgerüstet werden dürfen diese dann nämlich nicht mehr, könnten nur mit dem aktuellen Stand weiterbetrieben werden. Die Folgen treffen DRAM, aber vor allem NAND – hier hätte insbesondere SK Hynix nun einen großen Klotz am Bein.
1 Ecke weiter gedacht würde das Intels Fabs auf einmal unverzichtbar machen für fortschrittliche Nodes made in USA. TSMC muss Preise weiter erhöhen und das macht Intel wieder schneller wirtschaftlich, mit weniger Preisdruck.

Gipsel
2025-09-02, 18:33:25
Heftiger Move von der US-Regierung:
https://www.computerbase.de/news/wirtschaft/samsung-und-sk-hynix-us-regierung-will-fab-aufruestungen-in-china-unterbinden.94128/

1 Ecke weiter gedacht würde das Intels Fabs auf einmal unverzichtbar machen für fortschrittliche Nodes made in USA. TSMC muss Preise weiter erhöhen und das macht Intel wieder schneller wirtschaftlich, mit weniger Preisdruck.Heftiger Move wäre es, wenn SK Hynix, Samsungs und TSMCs kurz mal die Köpfe zusammenstecken und dies dann einfach ignorieren. Reagiert die USA dann mit einem Verkaufsverbot? Wo bekommen die dann ihren DRAM und NAND-Speicher her? Soo viele Alternativen gibt es ja nicht. :rolleyes:

Complicated
2025-09-02, 18:41:24
Die glauben wohl das forciert mehr moderne Upgrades in Fabs auf US-Boden. :freak:

Brillus
2025-09-02, 19:58:03
Frage ist halt was bekommen die Fabriken an Ausrüstung aus USA und gibts alternativen?

Daher ob die ignorieren können ist Frage. Aber könnten sagen Liefern nichtmehr an USA bzw. Die Firmen.

Skysnake
2025-09-04, 20:42:08
Das Video ist wirklich nicht schlecht. Kannte ich jetzt auch noch nicht alles.

EUV Belichter sind halt schon ziemliche technologische Monster. Muss man einfach den Hut vor ziehen.

CrazyIvan
2025-09-09, 15:06:30
Frage ist halt was bekommen die Fabriken an Ausrüstung aus USA und gibts alternativen?

Daher ob die ignorieren können ist Frage. Aber könnten sagen Liefern nichtmehr an USA bzw. Die Firmen.
Das trifft auch ASML, da die US-IP verwenden. Man möchte China schlicht dazu zwingen, auf eigenem Territorium eigenes Equipment verwenden zu müssen, das technisch IIRC ca. 2 Dekaden hinterher ist - oder habe ich da belastbare neuere Erkenntnisse verpasst?

ChaosTM
2025-09-09, 15:17:04
2 Dekaden waren vor 5 Jahren. Man holt angeblich sehr schnell auf (https://www.google.com/search?client=firefox-b-d&q=cchina+own+euv)

Was davon stimmt wird man bald sehen..

basix
2025-09-20, 11:44:40
Neuer GPU basierter RTL Emulator namens "GEM":
https://research.nvidia.com/publication/2025-06_gem-gpu-accelerated-emulator-inspired-rtl-simulation
https://d1qx31qr3h6wln.cloudfront.net/publications/GEM.pdf

GEM is an open-source RTL logic simulator with CUDA acceleration, developed and maintained by NVIDIA Research. GEM can deliver up to 5...40X speed-up compared to CPU-based leading RTL simulators.

HOT
2025-09-20, 14:34:47
Das trifft auch ASML, da die US-IP verwenden. Man möchte China schlicht dazu zwingen, auf eigenem Territorium eigenes Equipment verwenden zu müssen, das technisch IIRC ca. 2 Dekaden hinterher ist - oder habe ich da belastbare neuere Erkenntnisse verpasst?

China baut bereits an der eigenen EUV-Maschine, das ist sehr relativ. Dort hast du oft den Turbo in solchen Entwicklungen und an fähigen Leuten (vor allem Chinesen aus Taiwan) herrscht auch kein Mangel. Die haben das nicht morgen fertig aber 20 Jahre ist kompletter Unsinn.

Badesalz
2025-09-20, 15:14:47
China baut bereits an der eigenen EUV-Maschine,Geht so. Sie machen grad exzessives Reverse Engineering :rolleyes:

Zossel
2025-09-20, 15:52:23
Neuer GPU basierter RTL Emulator namens "GEM":
https://research.nvidia.com/publication/2025-06_gem-gpu-accelerated-emulator-inspired-rtl-simulation
https://d1qx31qr3h6wln.cloudfront.net/publications/GEM.pdf

Da dürften eher FPGAs der Maßstab sein.

robbitop
2025-09-20, 16:04:11
IMO komplett dumm gewesen denen den Zugang zu EIV und Chips einzuschränken. Vorher hatte man sie als abhängige Kunden. Jetzt sorgt man dafür dass sie reichlich Motivation haben das selbst hinzubekommen und eigenständig zu werden. Ein rein temporärer Effekt den man damit erzielt.

Badesalz
2025-09-20, 18:26:11
@robbitop
Dein Ernst? Sie haben sich im Hintergrund eh auf alles mögliche vorbereitet, da von oben aus fest steht, daß Taiwan mal überfallen wird. Was zu mehr führen wird als paar blöden Nutzungsrechten.

Wir haben das eher viel zu spät gemacht (!)

Skysnake
2025-09-20, 19:49:37
Da dürften eher FPGAs der Maßstab sein.

Ich habs mir verkniffen zu sagen

CrazyIvan
2025-09-21, 08:52:32
@robbitop
Wir haben das eher viel zu spät gemacht (!)
Sehe ich genau so.
CB hat übrigens mal wieder den Stand der Dinge zusammengefasst und so wie ich das sehe, kann von Aufholen keine Rede sein. Die leben vom Bestand an ASML Equipment und die Fortschritte bei eigenen Anlagen sind weiterhin dürftig. So weit weg von der Realität dürften die 2 Dekaden weiterhin nicht sein.

https://www.computerbase.de/news/wirtschaft/fuer-7-nm-chips-chinas-foundry-smic-testet-heimisches-lithografiesystem.94365/

Badesalz
2025-09-21, 19:02:42
Das ist nur das eine, nachzubauen was ASML macht. Nachzubauen was Zeiss macht ist eine ganz andere Nummer (!)

ChaosTM
2025-09-21, 19:43:57
Alles nur eine Frage der Zeiss.. äh Zeit.
Selbst wenn man Taiwan nicht überfällt und all die Technik inhaliert (haben sie wahrscheinlich schon) werden die so was ähnliches hinbekommen.

China hat unglaublich viele und gut ausgebildete Techniker in allen Bereichen.

robbitop
2025-09-21, 19:56:33
Die Frage ist ob TSMC bei einem Überfall nicht durch die Amis in Schutt und Asche gelegt wird.

Sehe es wie ChaosTM. China hat Geld und viele Menschen und viele davon auch mit Talent. Und der nötige Fokus ist auch dabei. Alles nur eine Frage der Zeit bis die da hin kommen wo andere heute sind. Warum sollten sie es nicht schaffen? Insbesondere wenn man Patente ignoriert X-D
In jeder Branche in der China beschließt Marktführer zu werden wird früher oder später alles überrannt. Solar, EVs, „Elektronik“ (zB TVs, Haushaltsroboter, Tablets, Handies usw) Windenergie usw.

Badesalz
2025-09-21, 21:42:01
Die Frage ist ob TSMC bei einem Überfall nicht durch die Amis in Schutt und Asche gelegt wird.Hä? TSMCs komplette Produktion steht längst auf C4.

Ich dachte das ist allgemein bekannt (?) :|

CrazyIvan
2025-09-21, 21:52:12
@robbitop
Ja, ob es nur eine Frage der Zeit ist oder nicht, ist für mich auch gar nicht das Thema. Es macht geopolitisch und wirtschaftlich jedoch schon einen Unterschied, ob wir über Monate (behaupten manche Träumer), Jahre, oder womöglich gar Jahrzehnte sprechen.
Die grundsätzliche Fähigkeit spreche ich China natürlich nicht ab.

Zossel
2025-09-21, 22:00:48
@robbitop
Ja, ob es nur eine Frage der Zeit ist oder nicht, ist für mich auch gar nicht das Thema. Es macht geopolitisch und wirtschaftlich jedoch schon einen Unterschied, ob wir über Monate (behaupten manche Träumer), Jahre, oder womöglich gar Jahrzehnte sprechen.
Die grundsätzliche Fähigkeit spreche ich China natürlich nicht ab.

Mal schauen was wird wenn Xi die erste fette Krise managen muss.

basix
2025-09-22, 08:38:02
Da dürften eher FPGAs der Maßstab sein.
Ich habs mir verkniffen zu sagen

Ihr habt also nichtmal das Abstract gelesen? ;)
Sie behaupten auch nicht, das GPUs die schnellste Simulation liefern. Gleich neben den Abstract gibt es auch ein schönes Bildchen, welches CPU vs. GPU vs. FPGA Simulatoren vergleicht.

In this paper, we present a GPU-accelerated RTL simulator addressing critical challenges in high-speed circuit verification. Traditional CPU-based RTL simulators struggle with scalability and performance, and while FPGA-based emulators offer acceleration, they are costly and less accessible. Previous GPU-based attempts have failed to speed up RTL simulation due to the heterogeneous nature of circuit partitions, which conflicts with the SIMT (Single Instruction, Multiple Thread) paradigm of GPUs. Inspired by the design of emulators, our approach introduces a novel virtual Very Long Instruction Word (VLIW) architecture, designed for efficient CUDA execution. We also design a flow that maps circuit logic to the architecture in a process analogous to the FPGA CAD flow. This architecture mitigates issues of irregular memory access and thread divergence, unlocking GPU potential for RTL simulation. Our solution achieves up to 64× speed-up over the best CPU simulators, democratizing high-speed RTL simulation with accessible hardware and establishing a new frontier for GPU-accelerated circuit verification.

Für kleinere Buden oder Forschungseinrichtungen ohne das Geld oder Know-How für FPGA-Simulatoren ist das also schon mal ziemlich nice. Auch für schnelle Iterationen eines (kleineren) Funktionsblocks dürfte sowas interessant sein, da man GPUs schneller und einfacher verfügbar hat. Zudem funktioniert es auch ganz gut mit Consumer-GPUs (im Paper verwenden sie neben einer A100 auch eine RTX 3090). Und jetzt warte ich nur noch auf den zweiten Schritt, der den Simulator von einer Einzel-GPU auf NVL72 / NVL144 / NVL576 lauffähig macht (oder sowas wie Rubin CPX im Rackscale Format) und dann sehen wir nochmals, wie das gegen FPGAs aussehen wird ;)

The framework of GEM is extensible and many improvements are possible as future works, including native arithmetic operations, multi-GPU support, CUDA software pipelining, 4-state simulation, etc. We will open-source GEM for democratizing high-performance RTL verification as well as fostering further research.

Der Industrie & Forschung scheint es auch zu gefallen, das Paper bekam eine "Best Paper" Award Nomination auf der DAC 2025 (Design Automation Conference).

Badesalz
2025-09-22, 08:45:50
Mal schauen was wird wenn Xi die erste fette Krise managen muss.Keine Ahnung. Wie läuft es da eigentlich mit Evergrande?

Zossel
2025-09-22, 09:35:48
Keine Ahnung. Wie läuft es da eigentlich mit Evergrande?
So einen initialen Boom zu entfachten ist ja recht einfach, erinnert sich noch jemand an die asiatischen Tigerstaaten oder wie Japan alles platt machen würde?

Und solche Meldungen kommen mittlerweile auch aus anderen Branchen in China:
https://www.n-tv.de/wirtschaft/Wie-Chinas-Autobauer-an-Uberkapazitaeten-ersticken-article26040338.html

Und Staatskapitalismus ist nicht gegen Krisen gefeit.

Badesalz
2025-09-22, 09:42:07
So einen initialen Boom zu entfachten ist ja recht einfach, erinnert sich noch jemand an die asiatischen Tigerstaaten oder wie Japan alles platt machen würde?Japan ist letztendlich und endgültig an den Erdbeben der Lehman-Krise gestolpert.

HOT
2025-09-22, 12:10:37
IMO komplett dumm gewesen denen den Zugang zu EIV und Chips einzuschränken. Vorher hatte man sie als abhängige Kunden. Jetzt sorgt man dafür dass sie reichlich Motivation haben das selbst hinzubekommen und eigenständig zu werden. Ein rein temporärer Effekt den man damit erzielt.

Das ist eine durchgängige Konstante westlicher Sanktionspolitik...

So einen initialen Boom zu entfachten ist ja recht einfach, erinnert sich noch jemand an die asiatischen Tigerstaaten oder wie Japan alles platt machen würde?

Und solche Meldungen kommen mittlerweile auch aus anderen Branchen in China:
https://www.n-tv.de/wirtschaft/Wie-Chinas-Autobauer-an-Uberkapazitaeten-ersticken-article26040338.html

Und Staatskapitalismus ist nicht gegen Krisen gefeit.

Das war eben immer diese Medienmärchen, entweder machen andere alles platt oder sie sind total Rückständig - manchmal auch gleichzeitig :freak: oder machen generell immer alles falsch, einen Mittelweg der Entwicklung gibts da nicht, leider ist der aber die Realität, von daher kann man solche Artikel getrost in der Pfeife rauchen.

Zossel
2025-09-22, 12:32:08
Das war eben immer diese Medienmärchen, entweder machen andere alles platt oder sie sind total Rückständig - manchmal auch gleichzeitig :freak: oder machen generell immer alles falsch, einen Mittelweg der Entwicklung gibts da nicht, leider ist der aber die Realität, von daher kann man solche Artikel getrost in der Pfeife rauchen.

Warum sollte es in China anders laufen als in anderen Ländern? Was macht China anders/besser?

Leonidas
2025-09-22, 12:42:31
Warum sollte es in China anders laufen als in anderen Ländern? Was macht China anders/besser?

Gute Frage. Meist wird bei China ein was komplett vergessen: Japan 120M Einwohner, Südkorea 80M. China 1,4 Mrd.

Das ist der Unterschied. China ist zu groß, um von regulären Krisen gleich zu Fall gebracht zu werden. Sie konzentrieren sich auch derzeit (clevererweise) auf Binnenkonsum, um für Krisenzeiten gewappnet zu sein. Aber am Ende ist es "too big to fail" (wenn auch aus anderem Grund).

Mangel76
2025-09-22, 13:04:30
Gute Frage. Meist wird bei China ein was komplett vergessen: Japan 120M Einwohner, Südkorea 80M. China 1,4 Mrd.

Das ist der Unterschied. China ist zu groß, um von regulären Krisen gleich zu Fall gebracht zu werden. Sie konzentrieren sich auch derzeit (clevererweise) auf Binnenkonsum, um für Krisenzeiten gewappnet zu sein. Aber am Ende ist es "too big to fail" (wenn auch aus anderem Grund).

Kann man auch anders sehen. Kränkelt China hat die ganze Welt nen Schnupfen. Wenn ein Riese strauchelt, zieht er andere mit, was den Prozess noch verschärft.

Zossel
2025-09-22, 13:54:04
Kann man auch anders sehen. Kränkelt China hat die ganze Welt nen Schnupfen. Wenn ein Riese strauchelt, zieht er andere mit, was den Prozess noch verschärft.
Und der zentralistische Ansatz ist in der Biologie mit einer Monokultur vergleichbar. Diversität ist robuster.

mboeller
2025-09-22, 13:56:05
Gute Frage. Meist wird bei China ein was komplett vergessen: Japan 120M Einwohner, Südkorea 80M. China 1,4 Mrd.

Das ist der Unterschied. China ist zu groß, um von regulären Krisen gleich zu Fall gebracht zu werden. Sie konzentrieren sich auch derzeit (clevererweise) auf Binnenkonsum, um für Krisenzeiten gewappnet zu sein. Aber am Ende ist es "too big to fail" (wenn auch aus anderem Grund).

dazu passt das Chart das Steve Hsu repostet hat (den Original-Link findet man im Thread)

https://x.com/hsu_steve/status/1967931713251840331

Abgesehen von Consumer-Elektronik exportiert China nicht viel (zumindest Prozentual). So viel auch zu den Zöllen von Trump ... der denkt er könnte China damit ans Bein pinkeln ...

mboeller
2025-09-22, 13:59:41
Und der zentralistische Ansatz ist in der Biologie mit einer Monokultur vergleichbar. Diversität ist robuster.

zeig mir mal deine "Monokultur" bzgl. EV/REEV Autos:

https://carnewschina.com

Monokultur ist DDR: Trabant + Wartburg. Oder auch die Sowjetunion.

China ist was ganz anderes. Konkurrenzkampf bis aufs Blut/Margen.

HOT
2025-09-22, 14:47:44
Warum sollte es in China anders laufen als in anderen Ländern? Was macht China anders/besser?
Das ist ja der Punkt, das ist eben nicht der Fall, sondern eine simple Folge. Wenn du einem durchaus innovativen Land den Zugang zu Ressourcen verwehrst, wird es sich entwickeln, ganz einfach. Aber eben nicht besser oder schlechter als andere Länder. China ist eben nicht so besonders.

Und der zentralistische Ansatz ist in der Biologie mit einer Monokultur vergleichbar. Diversität ist robuster.

Das ist Ideologie und hat keinerlei Substanz. Was ist "Divers" und wie bewertet man das? Nach ESG? Hat weder geklappt noch hatte das je einen positiven Entwicklungseffekt. Deswegen ist ESG nicht mehr im Finanzmarkt... Und China ist eben keine Monokultur sondern genau das Gegenteil.

smalM
2025-09-24, 23:38:20
Und der zentralistische Ansatz ist in der Biologie mit einer Monokultur vergleichbar. Diversität ist robuster.
Der Vergleich hinkt.
Diversität in der Biologie ist die Spezialisierung in der Nische.
Der zentralistische Ansatz ist das Ameisen- oder Termitennest mit einer Königin. Zwei der erfolgreichsten Tierarten aller Zeiten....

Mortalvision
2025-09-25, 05:58:00
Ja. Aber ähnlich Spinnen nur bis zu einer gewissen Größe möglich. China und die USA haben sich eher zu zwei T-Rex entwickelt, die sich um die verbliebene Beute streiten, mit dem Bronchosaurus EU als Hüter der noch verbliebenen freien Welt…

smalM
2025-09-28, 21:55:58
Gute Frage. Meist wird bei China ein was komplett vergessen: Japan 120M Einwohner, Südkorea 80M. China 1,4 Mrd.

Das ist der Unterschied. China ist zu groß, um von regulären Krisen gleich zu Fall gebracht zu werden.

DIE reguläre Krise, von der China bereits voll erfaßt worden ist, ist der Zusammenbruch der Bevölkerungsstruktur. Seit dreieinhalb Jahrzehnten ist die Reproduktionsrate < 2, in den letzten paar Jahren ist sie sogar rapide weiter auf 1 geschrumpft.
Kann die KPChi die Chinesinnen nicht zum Kinderkriegen animieren (nichts spricht dafür), wird China bis 2050 zu einem Papiertiger mit Altersschwäche schrumpfen.

aufkrawall
2025-09-28, 22:06:04
Die werden einfach aus den jungen Bevölkerungen um sie herum halb mit Köder, halb mit Druck Leute herankarren und der von notorischen Dummschwätzern wie Peter Zeihan vielbeschworene, ständig unmittelbar bevorstehende Zusammenbruch Chinas wird mal wieder ausbleiben. Andere Länder werden zu dem Zeitpunkt wesentlich härter gef*ckt sein, nur halt ohne resultierenden Nachwuchs...

Badesalz
2025-10-08, 09:38:03
DIE reguläre Krise, von der China bereits voll erfaßt worden ist, ist der Zusammenbruch der Bevölkerungsstruktur. Die Lösen das grad. Schlage ich schon seit 8 Jahren vor damit anzufangen, aber die sind alle mal wieder zu blöd gewesen.

https://www.youtube.com/shorts/G0TenAl_KE8

https://www.youtube.com/shorts/2CD5iubOkiY

https://www.youtube.com/shorts/ue6i2wJoJbA

mboeller
2025-10-08, 10:27:39
Die Lösen das grad. Schlage ich schon seit 8 Jahren vor damit anzufangen, aber die sind alle mal wieder zu blöd gewesen.

https://www.youtube.com/shorts/G0TenAl_KE8

https://www.youtube.com/shorts/2CD5iubOkiY

https://www.youtube.com/shorts/ue6i2wJoJbA

tss... natürlich haben sie schon vor Jahren angefangen das Problem anzugehen.

Du denkst nur zu eng ;)

https://x.com/hsu_steve/status/1971545257142517957

Anzahl der Industrieroboter Weltweit. China hat mit weitem Abstand die meisten Industrieroboter.
Und wenn du im Thread weiter schaust, sie bauen auch die meisten Industrie-Roboter in China selbst.

Badesalz
2025-10-08, 10:48:41
tss... natürlich haben sie schon vor Jahren angefangen das Problem anzugehen.

Du denkst nur zu eng ;)Ich meinte Deutschland. Die letzte Nachricht die ich in Deutschland diesbezüglich gesehen habe war, daß Kuka an Midea verkauft wurde.

https://www.spruchverfahren-direkt.de/?p=3232

basix
2025-10-08, 15:28:52
Ich weiss nicht, ob das hier schon behandelt wurde:
Ein paar interessante Konzepte, wie man zuküftig HBM, HBF usw. skalieren kann
https://wccftech.com/next-gen-hbm-architecture-detailed-hbm4-hbm5-hbm6-hbm7-hbm8-up-to-64-tbps-bandwidth-240-gb-capacity-per-24-hi-stack-embedded-cooling/

Badesalz
2025-10-08, 18:48:54
Ja mega einfall. Kommt nicht drunter und nicht drüber, sondern daneben :D

basix
2025-10-08, 18:54:01
Ist nichts weltbewegendes. Aber man sieht die Tendenz aus Kombinationslösungen und Erweiterungen (HBM + LPDDR + HBF // Daisy Chaining von HBM Stacks usw.). Das kann man sich dann je nach Bedarf und Anwendungsfall im Baukastensystem zusammenschustern.

Und drunter kommt es schon auch noch, auf die untere Seite des Wafers oder Glas-Substrats (double sided interposer) ;)

smalM
2025-10-12, 14:33:16
IMO komplett dumm gewesen denen den Zugang zu EIV und Chips einzuschränken. Vorher hatte man sie als abhängige Kunden. Jetzt sorgt man dafür dass sie reichlich Motivation haben das selbst hinzubekommen und eigenständig zu werden. Ein rein temporärer Effekt den man damit erzielt.
Unsinn, China hatte bereits beschlossen, eine eigene Chip-Industrie aufzubauen.
Alles was passiert ist, ist ihnen den Zugang zu westlicher IP, die sie dann eh geklaut hätten, zu erschweren.

robbitop
2025-10-12, 15:19:36
Unsinn, China hatte bereits beschlossen, eine eigene Chip-Industrie aufzubauen.
Alles was passiert ist, ist ihnen den Zugang zu westlicher IP, die sie dann eh geklaut hätten, zu erschweren.
Gibt es dazu eine Quelle oder ist das reines Hörensagen? (ernst gemeinte Frage)
Ansonsten hat es (den Zugang zu limitieren) das auf jeden Fall weiter angeheizt. Und wenn man was nachbauen will kommt man ob über Umwege oder nicht so oder so daran.

IMO ist das Sitzen auf IP kein Erfolgsrezept. Wer sich darauf verlässt, wird potentiell überholt. Man muss einfach schneller innovieren als der Wettbewerb dann ist man immer vorn.

mboeller
2025-10-12, 19:38:06
Unsinn, China hatte bereits beschlossen, eine eigene Chip-Industrie aufzubauen.
Alles was passiert ist, ist ihnen den Zugang zu westlicher IP, die sie dann eh geklaut hätten, zu erschweren.

ja, 2018 nach den ersten Tarifen etc. von Trump

dildo4u
2025-10-19, 15:57:08
Erste Blackwell Chips aus TSMC Arizona


https://videocardz.com/newz/first-nvidia-blackwell-wafer-has-been-produced-at-tsmcs-arizona-fab

Slipknot79
2025-10-20, 00:38:32
Ich d8e der Bau einer Chipfabrik dauert 10 Jahre. oO

Tobalt
2025-10-20, 07:16:39
Eine Halle bauen dauert nicht so lange. Die Rezepte und Design Rules für einen führenden Prozess hingegen schon. In dem Fall ist anzunehmen dass TSMC das ja schon lange vorbereitet hat und ich erinnere mich auch daran, dass sie darauf bestanden ihre Engi Teams nach Arizona zu schicken, weil der lokalen Workforce noch das KnowHow fehlte

PS: Dresden soll auch schon nächstes Jahr anlaufen! Aber eben auch ein etwas reiferer Prozess

mboeller
2025-10-22, 13:58:33
Ich d8e der Bau einer Chipfabrik dauert 10 Jahre. oO

eher 5 Jahre:
https://en.wikipedia.org/wiki/TSMC_Arizona

ChaosTM
2025-10-22, 14:13:10
Erste Blackwell Chips aus TSMC Arizona


https://videocardz.com/newz/first-nvidia-blackwell-wafer-has-been-produced-at-tsmcs-arizona-fab


Zum Packaging müssen die aber immer noch nach Taiwan verschickt werden.


https://videocardz.com/newz/nvidias-us-made-blackwell-gpus-still-need-to-go-to-taiwan-for-packaging


Wird das in Dresden ähnlich laufen?

smalM
2025-10-23, 17:35:10
ja, 2018 nach den ersten Tarifen etc. von Trump
Nettes Märchen.

Tobalt
2025-10-23, 21:32:37
Dass Wafer Prozesse und Packaging in verschiedenen Fabs laufen ist doch nicht ungewöhnlich, oder?

Skysnake
2025-10-24, 04:23:08
Absolut normal. Selbst der Übergang in ein anderes Land ist nicht außergewöhnlich

CrazyIvan
2025-10-24, 05:49:26
Absolut normal. Selbst der Übergang in ein anderes Land ist nicht außergewöhnlich
Besonders knuffig fand ich vor über 20 Jahren in der Hinsicht, dass mein AMD Athlon Die nur eine knappe Autostunde entfernt in Dresden produziert wurde, anschließend aber nach Malaysia zum Packaging ging und von da aus erst zu mir kam.
Finde ich schon spannend, weil Wafer bzw. Dies sicher ein recht fragiles Frachtgut sind.

ChaosTM
2025-10-24, 07:37:44
Absolut normal. Selbst der Übergang in ein anderes Land ist nicht außergewöhnlich


https://www.digitimes.com/news/a20241223PD212/packaging-tsmc-wafer-market-testing.html


https://www.techspot.com/news/109958-tsmc-produces-first-nvidia-blackwell-gpu-us-but.html


Advanced CoWoS packaging bleibt vorerst Taiwan exklusiv. Daher..

dargo
2025-11-22, 20:36:28
Nettes Video zum Thema Transistor und der Zukunft von Chips.

IS5FovPfvf0

Nightspider
2025-11-22, 21:16:56
Oh Gott, teilt doch nicht diese Trulla mit ihren schlechten Videos.

dargo
2025-11-23, 11:51:48
Das Video ist tausend mal informativer als die Ergüsse einer 3DC-Spinne.

Complicated
2025-11-23, 12:35:04
Für Off Chip und Telekom sehe ich ja nutzen bei optischen links. Aber im Chip?!

Die Leiterbahnen dafür müssten ja enorm fett sein. Wenn dann wäre das nur was für die höheren interconnects. Das wird bestimmt erst dann sinnvoll wenn man auch die Logik direkt Photonisch integriert. Dann kann man die enorm reduzierte Dichte mit hoher Datenrate kompensieren.

Das gleiche Problem sehe ich auch bei der spintronik. Solange die Logik selbst noch rein elektronisch funktioniert, ist der Overhead einer hin- und Rückkonvertierung in Photonen bzw spins es wohl noch lange nicht wert.
Die Zeit scheint gekommen zu sein.
Die ersten Produktionslinien für photonische Chips sind dieses Jahr im Pilotbetrieb und es können PCIe Add-In-Karten geordert werden mit Auslieferung in 2026. Da völlig andere Sturkturgrößen und Fertigungslinien ohne EUV und Advanced Packinging verwendet werden, habe ich einen Thread für das Thema eröffnet:
Chipfertigung: Analoge photonische NPU (Nativ Processing Unit)

(https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13843972#post13843972)

smalM
2025-11-26, 10:38:18
Kirin 9030 in SMIC N+3 Node (https://www.notebookcheck.net/Kirin-9030-SMIC-s-first-5-nm-class-smartphone-SoC-debuts-on-Geekbench-alongside-Huawei-Mate-80-Pro-Max.1170391.0.html)

ryan
2025-12-03, 11:35:02
Patrick Moorhead, from Moor Insights & Strategy, who frequently engages with industry executives, reports that two Intel customers are very satisfied with the node's development so far. "Intel customers I've spoken to who have seen this node say that 14A is the real deal. It should be highly competitive not only in the datacenter and PC markets but also in mobile chips, which marks an important shift for the company."

Intel 14A Node Trials Signal Confidence From Early Customers (https://www.techpowerup.com/343571/intel-14a-node-trials-signal-confidence-from-early-customers)


TSMC kann sich schonmal warm anziehen :biggrin:

Badesalz
2025-12-03, 11:46:59
TSMC kann sich schonmal warm anziehen :biggrin::ulol: :ulol: :ulol:

mboeller
2025-12-03, 13:18:47
Kirin 9030 in SMIC N+3 Node (https://www.notebookcheck.net/Kirin-9030-SMIC-s-first-5-nm-class-smartphone-SoC-debuts-on-Geekbench-alongside-Huawei-Mate-80-Pro-Max.1170391.0.html)

und 2nm Patent von 2022 (wurde aber erst jetzt veröffentlicht):

https://www.notebookcheck.net/Huawei-inches-closer-to-2-nm-class-node-without-EUV.1174608.0.html#:~:text=A%20patent%20filed%20by%20Huawei,newer%2C%20more%20ad vanced%20EUV%20tools.

aber:

Understandably, there is some scepticism around the commercial viability of such an endeavour. For starters, its yields would be far too low to be commercially viable. Even if they are, they won't be anywhere close to EUV-based solutions.


theoretisch ja, praktisch eher nein

HOT
2025-12-04, 09:46:06
Micron beendet den Consumer Markt und macht Cruicial dicht.
https://www.computerbase.de/news/wirtschaft/fokus-auf-rechenzentren-micron-stellt-endkundengeschaeft-mit-marke-crucial-ein.95318/
Damit sind mal eben so ca. 20% im SSD-Markt *puff* weg. Und RAM ist auch nicht zu verachten. Na? Glaubt noch einer, dass wir da gut rauskommen? ;D

dargo
2025-12-04, 12:00:35
Micron beendet den Consumer Markt und macht Cruicial dicht.
https://www.computerbase.de/news/wirtschaft/fokus-auf-rechenzentren-micron-stellt-endkundengeschaeft-mit-marke-crucial-ein.95318/
Damit sind mal eben so ca. 20% im SSD-Markt *puff* weg. Und RAM ist auch nicht zu verachten. Na? Glaubt noch einer, dass wir da gut rauskommen? ;D
Ganz ehrlich... ich mache mir mehr Sorgen über die in den nächsten Jahren dank KI wegfallenden Arbeitsplätze als über steigende Preise von Consumer Hardware.

Platos
2025-12-04, 13:41:27
Intel 14A Node Trials Signal Confidence From Early Customers (https://www.techpowerup.com/343571/intel-14a-node-trials-signal-confidence-from-early-customers)


TSMC kann sich schonmal warm anziehen :biggrin:

Hört sich eig. gut an. Also so wie alles bei Intel seit Ice Lake :D

Aber jetzt halt wirklich!

^^

Na dann hoffen wir mal, dass es sich dieses mal bewahrheitet. Immerhin fusst die Aussage dieses mal nicht direkt von Intel anscheinend. Was das für Kunden sind, würde mich natürlich interessieren.

Lehdro
2025-12-04, 15:11:24
Hört sich eig. gut an. Also so wie alles bei Intel seit Ice Lake :D

Aber jetzt halt wirklich!

Schau dir halt seine anderen Posts hier im Thread an. Zu Intel 4/3 und 18A hat er dasselbe gepostet. Die Realität kennen wir aber.

Ich will erst etwas sehen, anstatt nur Ankündigungen zu bejubeln. 18A-P + Apple könnte der Gamechanger sein, der die Türen öffnet. Man muss halt nur ausblenden dass das schon etliche Nodes vorher angekündigt war...

Badesalz
2025-12-06, 15:51:11
Im Intel-Thread den Link gepostet, daß auch TSMC mal Probleme hat.

TSMC hat Probleme, bei Intel passt es. Finde den Fehler :tongue:

HOT
2025-12-06, 20:41:11
Ganz ehrlich... ich mache mir mehr Sorgen über die in den nächsten Jahren dank KI wegfallenden Arbeitsplätze als über steigende Preise von Consumer Hardware.
Kann man aber das sind ungelegte Eier aus meiner Sicht. Viel davon wird eh krachend scheitern mMn. Das wird sicherlich eher einen schleichenden Impact habenund der hat ja auch angefangen.

Da werden Rechendzentren gebaut und man weiss nicht mal ansatzweise, wo die ganze Energie dafür herkommen soll.

ryan
2025-12-06, 21:38:51
Schau dir halt seine anderen Posts hier im Thread an. Zu Intel 4/3 und 18A hat er dasselbe gepostet. Die Realität kennen wir aber.

Ich will erst etwas sehen, anstatt nur Ankündigungen zu bejubeln. 18A-P + Apple könnte der Gamechanger sein, der die Türen öffnet. Man muss halt nur ausblenden dass das schon etliche Nodes vorher angekündigt war...


Von early customers gab es solche Aussagen nie. Das sind immer nur Aussagen von Intel gewesen. Das ist hier schon was anderes. Zu 18A und 14A gab es von Intel auf der UBS Global Tech Conference neue Aussagen:

https://www.trendforce.com/news/2025/12/05/news-intel-eyes-emib-to-ramp-up-in-2h26-18a%E2%80%91p18a%E2%80%91pt-moves-toward-external-adoption/


Oder hier eine Zusammenfassung:

- Demand exceeds supply
- PTL started shipping (to OEMs)
- 18A-P & 14A PDKs are mature
- Outsourching Ratio:
=> ARL & LNL = 0% Internal
=> PTL = 70% Internal
=> NVL Desktop wafers back to Intel Foundry!!! (09:35)
- 14A optimized for External more than Internal
- EMIB better than CoWoS (14:57)
- ARL & LNL will become cheaper
- NVL will be competitive *across* the PC stack!!!
https://x.com/Silicon_Fly/status/1996665309210857532

Badesalz
2025-12-06, 21:49:50
Einfach nur: abwarten :up: Das Thema Hype ist bei Intel erstmal ne Weile durch. Nicht wieder so übertrieben viel Mühe geben...

Aktuell würde man eher jubeln, wenn Intel wieder Speicherbausteine machen würde :wink:

HOT
2025-12-07, 10:39:04
Wenn die Dinger in N2 designt sind werden die wohl kaum intern gefertigt. Es gibt halt die 2 und 4-Kern-Dies, die auch im Desktop in 18A vom Band laufen, das wars und das meinen die auch mit der Aussage.

Badesalz
2025-12-08, 10:31:44
Das Trara um TSMCs N2 ist grad auch so... aus dem blauen heraus oder? :tongue: Hat N3 nicht auch knappes Jahr mehr gebraucht und erst mit N3E und N3P funktioniert?

Genauso wie beim SRAM. SRAM lag von N5 auf N3 bei etwa -12%, richtig? "Analoges" lag bei -10%.
Jetzt schreiben irgendwelche News-Specials :usweet:, skaliert weiterhin nicht. Hä? Clickbait Shice?

TSMC sagt, skaliert von N3 auf N2 nicht besser als von N5 auf N3. Heißt also nochmal -12%, richtig?
Klar ist das gegenüber dem Rest schon nah einer Wand, aber ein Stückchen ging halt noch.

Ggf. ist man dann mit A14 bei -5% und dann wars das erstmal, wenn keine neuen Ansätze kommen (Spintronic??), aber wieviel SRAM braucht man denn "dadrin"? :| Von N5 auf A14 knapp -30% ist bzw- wäre nicht Nichts. Genauso wie die -24% von N5 auf N2.

Es kostet grad (imho, wenn nicht verhauen) noch nichtmal eine ganze Transistorbreite mehr beim N2 um gegenüber N5 aus 48KB, 64KB zu machen. Quasi gleiche Fläche.

aceCrasher
2025-12-08, 14:17:58
Genauso wie beim SRAM. SRAM lag von N5 auf N3 bei etwa -12%, richtig? "Analoges" lag bei -10%.
Jetzt schreiben irgendwelche News-Specials :usweet:, skaliert weiterhin nicht. Hä? Clickbait Shice?
TSMC sagt, skaliert von N3 auf N2 nicht besser als von N5 auf N3. Heißt also nochmal -12%, richtig?
Klar ist das gegenüber dem Rest schon nah einer Wand, aber ein Stückchen ging halt noch.


SRAM hatte kein Scaling von N5 auf N3.

https://www.techpowerup.com/img/dpweaj1XlLUeJLy3.jpg

davidzo
2025-12-08, 14:57:40
Jetzt schreiben irgendwelche News-Specials :usweet:, skaliert weiterhin nicht. Hä? Clickbait Shice?


Es sind zwei unterschiedliche Dinge. Die SRAM Zelle selbst skaliert nicht, trotz GAA.
Aber das ganze SRAM macro inkl. Ansteuerungslogik skaliert laut TSMC dank DCTO immer noch um Faktor 1,1, bzw. auf einen Rekordwert von 38.1Mb/mm2. Außerdem würde ich davon ausgehen dass die Performance durch GAA steigt, also wo bisher 7T verwendet wurde nun 6T sram reicht. Also dass man bei high performance Chips nun UHD Zellen verwenden kann statt HD.

Vermutlich dachte TSMC ursprünglich dass man sogar eine 4T Zelle anbieten kann. Jedenfalls geisterte mal die Zahl von 0.0175 µm^2 im Raum. Das scheint nun nicht mehr der Fall zu sein.

Ursprünglich war auch BSPDN für N2 geplant, was aber letztendlich erst mit A16 als super power Rail kommt. Das dürfte nochmals mehr platz im Signal Layer schaffen und damit bessere Density erlauben.



TSMC sagt, skaliert von N3 auf N2 nicht besser als von N5 auf N3.
Schöne Methode um auszusagen dass sie praktisch gar nicht skalieren.

Badesalz
2025-12-08, 17:27:57
Es sind zwei unterschiedliche Dinge. Die SRAM Zelle selbst skaliert nicht, trotz GAA.
Aber das ganze SRAM macro inkl. Ansteuerungslogik skaliert laut TSMC dank DCTO immer noch um Faktor 1,1Das wird es sein, diese "10 bis 12%"
DANKE :up:

Schöne Methode um auszusagen dass sie praktisch gar nicht skalieren.Wird wahrscheinlich das gleiche wie oben sein.

Nightspider
2025-12-09, 02:03:53
Wie gut sind denn aktuell die Nodes N6 und N4 ausgelastet?

davidzo
2025-12-09, 15:13:33
Anscheinend zu gut. Deshalb ja die Preisanhebung.

Es gab mehrere Beobachter die bereits bemerkt hatten dass der Preisanstieg den N2 Node unattraktiv macht, weil die Kosten pro Transistor stärker ansteigen als die Performancegewinne.

30.000$ pro Wafer bzw. über 50% mehr als bei N3 wo man in Volumen bei 18.20K pro Wafer liegt. Dafür gibt bei lediglich 15% mehr Density und 10-15% mehr performance oder 20-30% weniger Power.

Anstatt die N2 Preise dem Markt anzupassen hat TSMC also die alten Nodes entsprechend im Preis angehoben und somit die cost per Transistor und Performanceverhältnisse wieder hergestellt.

Samsung SF2 bekommt man angeblich für 20K$ per Wafer, aber da weiß man nicht ob der trot GAA überhaupt besser ist als TSMCs N3P Prozess. Böse Zungen behaupten das wäre eher ein "SF3P" node. Die Performance sollte stimmen weil ebenfalls GAA, aber die große Frage steht immer hinterm Yield.

Tobalt
2025-12-09, 17:10:28
GAA ist natürlich aufwändiger in der Fabrikation als ein FinFET. Deshalb wäre selbst ein scaling von 1:1 noch stark IMO. Der Vorteil von GAA ist ja nicht dass es kleiner wird... Generell ist ja "kleiner" kein Vorteil zum Selbstzweck, sondern man beabsichtigt damit ja konkrete Verbesserungen der device specs. Und GAA erhöht verbessert halt deutlich den Schaltkontrast (ein/aus) und erlaubt damit eine niedrigere Spannung. Also entweder geringerer Verbrauch oder mehr Overdrive (mehr Takt). Das ist natürlich genau das was man eigentlich will, auch wenn es nicht kleiner geworden ist ;)

Badesalz
2025-12-13, 21:57:13
So sehe ich das auch.
1. Yield ist der Schlüssel.
2. Wenn man jetzt real einen N2.6P :usweet: + GAA hätte, dann ist das imho nichts wofür man sich schämen müsste. Oder keiner gerne nützen würde, wenn es sonst wie erwartet taugt und die PReise/Kosten stimmen.

Leonidas
2025-12-15, 08:31:46
SMIC Density im Vergleich mit Intel, Samsung, TSMC:
https://x.com/jukan05/status/2000145283515392070
https://i.postimg.cc/28RjvWpD/image.png

aceCrasher
2025-12-15, 11:25:19
SMIC Density im Vergleich mit Intel, Samsung, TSMC:
https://x.com/jukan05/status/2000145283515392070
https://i.postimg.cc/28RjvWpD/image.png
Ziemlich beeindruckend für DUV. Ich will aber gar nicht wissen wie da die Yields sind. Letzendlich brauchen sie trotzdem irgendwann EUV.

Schade dass auf der Grafik die neueren TSMC nodes nicht eingezeichnet sind.

Voodoo6000
2025-12-15, 11:43:48
Definitiv beeindruckend für DUV, insbesondere wenn man an Intel-Probleme mit 10nm denkt. Dennoch wächst SMIC Rückstand im High-End-Bereich zu Samsung, Intel und TSMC. Außerdem ist unklar, wie viele Wafer SMIC in dem Prozess überhaupt belichten kann.

Badesalz
2025-12-15, 11:45:09
Ziemlich beeindruckend für DUV. Ich will aber gar nicht wissen wie da die Yields sind.Sie werden weit unter denen von Intel sein... Das rechnet man dann aber anders, wenn das die Technologie ist die dich unabhängig machen soll und es einfach dafür ausreicht nicht komplett abgehängt zu werden. Hinter sowas steckt eine andere Ökonomie, wenn man ausrechnet was es bedeutet es nicht zu tun.

"Rückstand im High-End" ist dafür nicht signifikant. Wenn das RZ für gleiche Leistung gar doppelt so groß ausfällt und doppelt so viel zieht, interessiert das nicht. Sie haben genug Platz, bauen in 1/3 der Zeit wie der Westen und Energie haben sie auch im Überfluss.

Das Tech was sie sonst noch nicht für EUV stibitzt haben ist nicht ASML EUV allgemein, sondern im Speziellen ZEISS.

AffenJack
2025-12-15, 11:57:21
Ziemlich beeindruckend für DUV. Ich will aber gar nicht wissen wie da die Yields sind. Letzendlich brauchen sie trotzdem irgendwann EUV.

Schade dass auf der Grafik die neueren TSMC nodes nicht eingezeichnet sind.

N7 ist ebenso DUV. Also man kommt nach 6 Jahren knapp drüber. Dass da noch ein wenig mehr ging, ist jetzt nicht unwahrscheinlich. Aber es war schlicht unökonomisch.

basix
2025-12-15, 12:08:44
Wenn ich wetten sollte, würde ich eher darauf tippen dass China in Richtug X-Ray Lithographie forscht: https://newsletter.semianalysis.com/p/how-to-kill-2-monopolies-with-1-tool?_gl=1*xx8awa*_ga*ODM0Mjk2MTIuMTc1NDY2NDYzOQ..*_ga_FKWNM9FBZ3*czE3NjU3OTY5MD ckbzE4JGcwJHQxNzY1Nzk2OTA3JGo2MCRsMCRoNTUwMDMzMjYx

Damit würde China alles was mit EUV und ASML zu tun hat umschiffen. Zusammen mit dem Potential, deutlich günstiger als EUV zu sein.

Platos
2025-12-16, 11:47:57
Also klassisches EUV hat ja 13nm und wenn ich das richtig verstehe, wollen die weiche Röntgenstrahlung nutzen im Bereich unter 1nm (also irgendwas im Bereich 0.1-1nm).

Soweit ok, aber warum sollte die Maschine dafür nun weniger Komplex sein müssen und weniger Optiken etc brauchen, wo doch diese Wellenlänge noch viel schwerer zu spiegeln/bündeln sein sollte? Weil da im Artikel steht, die Kosten für die Maschine soll (im Gegensatz zu High-NA EUV mit seinen 400 Millionen) "nur" in der Grössenordnung von 40Millionen sein, also gemeint ist verm. in der Grössenordnung von 10x weniger.

Wenn das so viel einfacher wäre, warum hat man das dann nicht schon früher gemacht, anstatt mit EUV? Das erscheint mir irgendwie etwas komisch.

davidzo
2025-12-16, 12:58:21
Wenn das so viel einfacher wäre, warum hat man das dann nicht schon früher gemacht, anstatt mit EUV? Das erscheint mir irgendwie etwas komisch.

Masken. Das Problem ist geeignete Maskenmaterialien zu finden die Röntgenstrahlung aushalten können. EUV gab es auch schon Jahrzehnte aber der Durchbruch kam erst als man Masken erfunden hat die unter EUV Licht lange genug halten. Erst als das gelöst war hat ASML mit Trumpf zusammen die EUV-Lichtquellen Technologie hochskaliert die man samt Patenten mit der US Firma Cyber aquiriert hatte, so dass man trotz wenig lichtstarker Optiken eine angemessene Belichtungsgeschwindigkeit erziehlt.

DUV Masken sind refraktiv bzw. nutzen linsenartige spalte und Beschichtungen die das Licht daneben absorbieren. Die Absorbtion ist eine Menge Energie die irgendwie abgeführt werden muss. Die Immersion der Maske hilft sicher dabei.

Bei EUV hat man aufgegeben ein Material zu finden das gleichzeitig feingranular genug ist, aber auch beständig gegen den nochmal viel höheren Energiegehalt von EUV Licht. Stattdessen arbeitet man mit verspiegelten Masken die das Licht zwischen den Durchlässen reflektieren.

Viel Spaß damit ein Maskenmaterial zu finden das Röntgenstrahlen aushält bzw. spiegelt und dabei nicht Millimeterdick und grob ist. Ich tippe mal darauf dass man es mit massiv platin oder gold schon ausprobiert hat, das aber nicht reichte.

Badesalz
2025-12-16, 13:27:25
Ich überleg grad wie dramatisch das für die technische Weiterentwicklung der Zivilisation sein könnte, wenn wir bei real 1,4++ ;) auf eine wirtschaftlich unüberwindbare Wall kämen.

Bei meiner groben Vorstellung was man mit sowas alles machen kann fällt mir da vorerst nicht soviel ein wie sehr uns das ausbremsen könnte :usweet:

Platos
2025-12-16, 15:28:53
Masken. Das Problem ist geeignete Maskenmaterialien zu finden die Röntgenstrahlung aushalten können. EUV gab es auch schon Jahrzehnte aber der Durchbruch kam erst als man Masken erfunden hat die unter EUV Licht lange genug halten. Erst als das gelöst war hat ASML mit Trumpf zusammen die EUV-Lichtquellen Technologie hochskaliert die man samt Patenten mit der US Firma Cyber aquiriert hatte, so dass man trotz wenig lichtstarker Optiken eine angemessene Belichtungsgeschwindigkeit erziehlt.

DUV Masken sind refraktiv bzw. nutzen linsenartige spalte und Beschichtungen die das Licht daneben absorbieren. Die Absorbtion ist eine Menge Energie die irgendwie abgeführt werden muss. Die Immersion der Maske hilft sicher dabei.

Bei EUV hat man aufgegeben ein Material zu finden das gleichzeitig feingranular genug ist, aber auch beständig gegen den nochmal viel höheren Energiegehalt von EUV Licht. Stattdessen arbeitet man mit verspiegelten Masken die das Licht zwischen den Durchlässen reflektieren.

Viel Spaß damit ein Maskenmaterial zu finden das Röntgenstrahlen aushält bzw. spiegelt und dabei nicht Millimeterdick und grob ist. Ich tippe mal darauf dass man es mit massiv platin oder gold schon ausprobiert hat, das aber nicht reichte.

Ja gut, aber es gibt ja schon belichtete (Labor-)Wafer von "Substrat", also scheint ja wohl eine (funktionierende) Maske zu exisiteren. Und sie wollen ja "ab" 2028 schon Tape-Outs machen.

Also wenn ich das richtig verstande habe, handelt es sich hier ja nicht "nur" um ein Vorhaben, Belichtungsmaschinen zu produzieren sondern gleich als Chip-Fertiger (mit seinen eigenen Velichtungsmaschinen) einzusteigen. Und wenn die so straffe Ziele setzten, bin ich schon mal gespannt. Von dem Punkt her hört es sich wiederum relativ gut an.

Es wäre auf jeden Fall für den Preiskampf eine riesen Bereicherung. Bisher gibts ja keinen mehr so richtig.

davidzo
2025-12-16, 16:26:56
Ja gut, aber es gibt ja schon belichtete (Labor-)Wafer von "Substrat", also scheint ja wohl eine (funktionierende) Maske zu exisiteren. Und sie wollen ja "ab" 2028 schon Tape-Outs machen.

Also wenn ich das richtig verstande habe, handelt es sich hier ja nicht "nur" um ein Vorhaben, Belichtungsmaschinen zu produzieren sondern gleich als Chip-Fertiger (mit seinen eigenen Velichtungsmaschinen) einzusteigen. Und wenn die so straffe Ziele setzten, bin ich schon mal gespannt. Von dem Punkt her hört es sich wiederum relativ gut an.

Es wäre auf jeden Fall für den Preiskampf eine riesen Bereicherung. Bisher gibts ja keinen mehr so richtig.

1. Was für ein beschissener Name für eine Litographie Firma. Das macht gleich alle paper scheiße kompliziert zu lesen.

2. Einzelne Laborwerte sind noch keine praxiswerte. Die ersten röntgen belichtungen haben bereits 1972 stattgefunden und jeder Zahnarzt hat das eqipment um wafer zu belichten (einen Strahlungsquelle und eine Platte blei mit einem Schlitz reichen). Substrate zeigt bisher Teststrukturen, keine multiplen Layer oder ganzen Transistoren, geschweige denn SRAM. IBM hat in den 90ern schon fertigere Testwafer gezeigt.

3. Dass sie ihren Scanner als 10x günstiger einschätzen als ASMLs sagt mir eher dass sie noch viele unknown unknows haben die sie eben nicht mit einkalkuliert haben. Man kalkuliert nur die Probleme die man vorher kennt, nicht die welche einem auf dem Weg in die Massenproduktion begegnen. Die meisten Funktionen eines scanners bzw. einer ganzen Produktionslinie im 2-1nm Bereich sind identisch egal ob EUV oder xray. ASML müsste eine 90prozent Marge haben wenn da tatsächlich soviel Kostenoptimierungspotential in dem ganzen Fab equipment steckt. Insofern wird die Summe vielleicht um Faktor 1,1, 1,5 oder 2 abweichen wenn man die Lichtquelle und Masken ändert, aber niemals um Faktor 10.

4. "Leading-edge wafers will be 50% cheaper than existing" - Das passt nicht zu dem Claim von Faktor 10. Irgendwas macht die Wafer also wieder über Faktor 5 teurer als geplant.

5. Es ist auch völlig unklar ob sie überhaupt über eine eigene Lichtquelle verfügen oder darauf angewiesen sind bereits optisch gerichtete Strahlung aus einem öffentlichen Teilchenbeschleuniger zu verwenden.

6. Nur weil man einen einzelnen Layer belichten konnte heißt das noch nicht dass man wie in einem bisherigen Litographieprozess Transistoren herstellen kann. Die Wahrscheinlichkeit dass Röntgenstrahlen bei mehreren Layern wieder die darunterliegenden Schichten beschädigen und dadurch einen schlechten yield verursachen ist sehr hoch. Wäre das nicht so, hätte man bereits ganze Transistoren gezeigt.
Semianalysus nennt das auch direkt als eines der vielen Risiken:
X-ray Damage: X-rays can penetrate the resist and hard mask, causing damage to existing structures. Even low energy X-rays can damage gate dielectrics and doped Si regions, both critical to a performant transistor. X-ray exposures on layers above existing devices will need to be extremely well controlled.


7. Es gibt zwar Infos zur "feature size" aber null zu tool life. Es kann sein dass die Maske nach einer einzigen Belichtung hinüber ist.


Gerade weil sie in einigen Angaben so spezifisch sind, muss man davon ausgehen dass alles zu dem keine Daten genannt werden noch nicht existiert oder sehr in sehr schlechtem Zustand ist.

Technologie Startups sind konstant auf Geldsuche, weil der erste Umsatz erst in Jahren oder Jahrzehnten zu erwarten ist. Wenn die also was präsentieren muss man davon ausgehen dass die immer einen extrem optimistischen Plan zeigen, einen der dem Investor das Blaue vom Himmel und return of invest in kürzester Zeit versprechen. Das sind nie realistische Fahrpläne sonder immer der optimistischte Fall.
Dass man dann in der Praxis langsamer ist schiebt man als startup dann neben unknown unknowns darauf dass Investitionen später oder nicht in gewünschter höhe getätigt wurden.

basix
2025-12-16, 20:34:35
Zu 4.)
10x billiger ist nur die Belichtungsmaschine. Ätzen, waschen, dotieren usw. musst du ja immer noch. Es fallen die hohen Kosten für den Belichter und allenfalls Multi-Patterning weg. Und da die Kosten der Maschine auf Augenhöhe Highend-DUV liegt, kann man deutlich mehr Layer ökonomisch belichten. Und da das dann präziser und feiner geht, fällt dort auch Multi-Patterning weg oder du hast generell mehr Designfreiheiten.

Schafft Subtrate es, den Prozess zu industrialisieren, wäre das eine Revolution. Und Röntgenstrahlung lässt sich zwischen 0.1...10nm Wellenlänge skalieren und bietet somit noch freiliegendes Potential für 2030+ 😉

Skysnake
2025-12-16, 20:42:13
@Badesalz man kann sich eigentlich gar kein zu schlimmes Szenario für unsere Ökonomie aber noch mehr für unsere Wissenschaft vorstellen als das was passiert wenn wir gegen die ökonomische Wand laufen.

Bezüglich xray Lithografie. Es sind nicht nur die Masken sondern auch der Resist also Fotolack. Man muss auf der einen Seite einen haben der empfindlich genug ist das man nicht ewig belichten muss Stichwort Durchsatz. Auf der anderen Seite muss er aber auch unempfindlich genug sein damit Streuung nicht für ungewollte Belichtung sorgt. Line Roughness ist da ein Stichwort. Ach und natürlich müssen die Partikel klein genug sein....

Das ist quasi die Quadratur des Kreises. EUV ist da meiner Meinung nach noch "einfach" gegen.

XRAY wird allgemein als derart schwer betrachtet das multibeam Ionensttahl als leichter angesehen wird und die Meinung teile ich.

Bei Multibeam Ionenstrahl muss man "nur" die Anzahl der Beams skalieren um genug Durchsatz zu erreichen. Die Technik an sich ist im Gegensatz zu XRAY etabliert. Wird doch jede Maske damit gefertigt. Dauert halt nur ewig mit den heutigen Single Beams.

Badesalz
2025-12-16, 22:03:53
@Badesalz man kann sich eigentlich gar kein zu schlimmes Szenario für unsere Ökonomie aber noch mehr für unsere Wissenschaft vorstellen als das was passiert wenn wir gegen die ökonomische Wand laufen.Nun... Meinst du das wie ich, im Bezug auf noch und nöcher kleinere Nodes? (UNTERHALB 1,4)

Ridcully
2025-12-16, 23:19:10
Wenn die Belichtung an ihre Grenzen stößt könnte sich die Industrie sicherlich eine ganze Weile mit größeren wafern weiterhelfen. Und auch mehr in die dritte Dimension gehen. Da ist ja auch noch potenzial.

davidzo
2025-12-16, 23:36:36
450mm Wafer sind tot. Spätestens seit EUV nochmal höhere Hallen brauchte um die Scanner unterzubekommen. Wenn man das nun auf 450mm erweitern würde könnte man die fabs alle abreißen und komplett neubauen. Und Wafer und Masken, etc. müsste das ganze Ökosystem neu geschaffen werden. Nee, dann lieber mehre 300mm scanner.

Was 3D angeht geht das doch schon längst und zwar via chip stacking und theoretisch auch über BSPDN bzw. active base Dies.

Das Problem wieso man nicht mehrere Poly Layer in einem chip übereinander baut ist dass die Metal Layer dadrunter ja auch skalieren müssen und man die Transistoren dann ja über Vias anbinden müsste was wieder Density im poly layer kostet.
Mit Super Power Rail wird man das Problem vom M0 scaling zwar angehen, aber ich bezweifle dass man die Poly Layer erhöht. Im grunde ist es aber genau das, also ein metal layer der von der anderen Seite auf den Poly layer aufsetzt. Das ist schon 3D genug.
Über Fin depopulation hat man außerdem schon jetzt die Chance das Area-Scaling zu verbessern, zulasten der performance. Wenn man jetzt GAA dazunimmt, dann federt dass die negativen effekte auf die performance von Fin depopulation zum großen teil wieder ab.
Und GAA mit multiplen Nanobändern übereinander ist ja quasi schon ein vertikaler Transistor. Der braucht aber keine Vias um mit M0 verbunden zu werden. Wieso sollte man also Poly Layer hinzufügen wenn man so schon viele Hebel hat?

Wörns
2025-12-17, 14:45:13
Bei Multibeam Ionenstrahl muss man "nur" die Anzahl der Beams skalieren um genug Durchsatz zu erreichen. Die Technik an sich ist im Gegensatz zu XRAY etabliert. Wird doch jede Maske damit gefertigt. Dauert halt nur ewig mit den heutigen Single Beams.

Multibeam Ionenstrahl ist zur Herstellung von Masken etabliert. Aber die damit erzeugten Masken wären Schrott, wenn sie nicht aufwändig inspiziert und repariert werden würden. Eine im Multibeam Ionenstrahl Verfahren hergestellte EUV Maske hat zunächst eine 2- bis 3-stellige Anzahl von Fehlern, die vor ihrem erstmaligen Einsatz behoben werden müssen.
Weiterhin ist zu berücksichtigen, dass das Multibeam Ionenstrahl Verfahren noch um einen weiteren Faktor von ca. 4 in Richtung Miniaturisierung aufholen müsste, um den Größenunterschied zwischen Struktur auf der Maske und Struktur auf dem belichteten Wafer wettzumachen.

Vor diesen Schwierigkeiten steht das Multibeam Ionenstrahl Verfahren. Kann sein, dass es immer noch erfolgversprechender ist als Röntgenstrahlung. Das liegt dann aber eher daran, dass Röntgenstrahlung noch viel weiter von der Umsetzung weg ist, dass Multibeam Ionenstrahl im Vergleich schon wieder realistisch wirkt.
MfG

Badesalz
2025-12-18, 09:57:35
Erste Schritte :|
https://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/67762-euv-prototyp-team-in-china-soll-ersten-belichtungsscanner-fertiggestellt-haben.html

Orko
2025-12-18, 10:49:24
Viel Spaß damit ein Maskenmaterial zu finden das Röntgenstrahlen aushält bzw. spiegelt und dabei nicht Millimeterdick und grob ist.






Bezüglich xray Lithografie. Es sind nicht nur die Masken sondern auch der Resist also Fotolack. Man muss auf der einen Seite einen haben der empfindlich genug ist das man nicht ewig belichten muss Stichwort Durchsatz. Auf der anderen Seite muss er aber auch unempfindlich genug sein damit Streuung nicht für ungewollte Belichtung sorgt. Line Roughness ist da ein Stichwort. Ach und natürlich müssen die Partikel klein genug sein....



Desweiteren die Photonenrauschen Problematik: Ausreichend hohe Photonenanzahl vs Belichtungszeitraum vs Energieeintrag

Ja, Partikelgröße des Fotolacks ist einer der wesentlichen Knackpunkte. Kleiner als ein "komplexes Molekül" wird schwierig. Es sei denn wir haben irgendwann "radioaktive" Fotolacke welche nicht mehr auf Elektronenorbital-Ebene sondern auf Atomkern-Ebene auf Strahlungseinfall reagieren.




XRAY wird allgemein als derart schwer betrachtet das multibeam Ionensttahl als leichter angesehen wird und die Meinung teile ich.



Auch ich teile diese Meinung.

Das Ziel für Alternativen zu EUV ist erst einmal, mit EUV gleichzuziehen und damit eine parallele Option zu schaffen.
Welcher Technologie in der kontinuierlichen Weiterentwicklung dann zuerst die technologische und finanzielle Puste ausgeht ... steht ohnehin in den Sternen.
Die atomare Granularität von Materie (Wafer, Masken, Lack, Optiken, ...) und Atom/Molekülgrößen sind nun einmal physikalisch gegeben, und je näher man sich an diese Grenze heranrobbt desto schwieriger wird es.


Die EUV Entwicklung war (und ist) ein Kraftakt über mehrere Jahr(zehnt)e mit etlichen Kardinalsproblemen, welcher von einem ganzen Chipherstellungs-Ökosystem Stück für Stück gemeistert wurde: Auswahl der Strahlungswellenlänge und Entwicklung einer geeigneten Strahlenquelle mit Skalierungspotential, Material und Herstellung der Optiken, Material und Herstellung der Masken, Inspektion von Masken und Wafern, Pellicles, Fotolack, uvm


Ionenstrahl / Elektronenstrahl hat zumindest seine prinzipielle Eignung bewiesen, kann auf das existierende Fundament aufsetzen, und muss "nur noch" ausreichend verbessert werden. Es ist weit verbreitet mit entsprechend vielen involvierten und z.T finanzstarken Playern, welche Innovationen treiben könnten.

Der Verzicht auf eine Maske hat Vor- und Nachteile.
Die Möglichkeit nach der Belichtung den Wafer zu inspizieren und Fehlstellen zu reparieren sehe ich als Pluspunkt. Das lässt sich gut automatisieren und parallelisieren.


Für Xray sehe ich dieses Fundament bisher nicht. Wenn sich das komplette Chipherstellungs-Ökosystem dahinterklemmen würde, dann vielleicht (mit einem sehr grossen Fragezeichen). Aber einigen vereinzelten Playern traue ich derzeit einfach nicht zu, in so vielen offenen Schlüsselstellen in absehbarer Zeit einen substanziellen Durchbruch zu erzielen. Von zeitlich planbaren Durchbrüchen ganz zu schweigen.





Vor diesen Schwierigkeiten steht das Multibeam Ionenstrahl Verfahren. Kann sein, dass es immer noch erfolgversprechender ist als Röntgenstrahlung. Das liegt dann aber eher daran, dass Röntgenstrahlung noch viel weiter von der Umsetzung weg ist, dass Multibeam Ionenstrahl im Vergleich schon wieder realistisch wirkt.
MfG

+1

Vielleicht sehen wir irgendwann Ionenstrahl / Elektronenstrahl nicht als Ersatz sondern als Ergänzung zu EUV. Zum Beispiel Grob / Fein - Patterning Ansätze. Oder punktuelle Reparatur von EUV belichteten Wafern. Oder für Layer mit geeigneten Strukturen: Die kleinen 2D Metallagen mit EUV und die kleinen Via-Strukturen mit Ionenstrahl / Elektronenstrahl.

mboeller
2025-12-18, 12:14:36
Erste Schritte :|
https://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/67762-euv-prototyp-team-in-china-soll-ersten-belichtungsscanner-fertiggestellt-haben.html

und in 3 Jahren in Serie ... mal sehen ;)

https://x.com/RnaudBertrand/status/2001504635027402947

https://x.com/BramVGenechten/status/1997289420467392728

https://www.reuters.com/world/china/how-china-built-its-manhattan-project-rival-west-ai-chips-2025-12-17/

Skysnake
2025-12-18, 18:54:59
@Oko sorry, ich meinte Elektrpnenstragl nicht Ionenstrahl Lithographie. SHAME ON ME

Der Punkt ist wie du sagst, das mal bei Elektronenatrahl Lithographie nur die Geschwindigkeit erhöhen muss. Das kann man durch mehr Strahlen schon ziemlich stark steigern. Am Ende ist das "nur" ein ingenieurstechnisches Problem. Komplett anders als bei xray.

Das größte Problem sind große Flächen. Aber das wird man auch in den Griff bekommen durch defokusing. Man muss halt noch genug Intensität hinbekommen, aber das sollte ein überschaubares Problem sein.

Wörns
2025-12-18, 20:38:01
Shame on me also!
Ich meinte oben auch multi-electron-beam und nicht Ionenstrahlen, mit denen die EUV Masken hergestellt werden.
MfG

Orko
2025-12-19, 11:17:32
Ja, Stand der Technik sind Elektronenstrahlen.
Aber die Idee mit den Ionenstrahlen finde ich gar nicht so uninteressant.

Es wird ja nicht mit einer abbildenden Optik gearbeitet, sondern die Lackoberfläche mit einem moduliertem Strahl abgerastert.
Durch den Verzicht auf die Optik ist die "Größe der Strahlungsteilchen" nicht mehr ganz so wichtig.

Der physikalisch limitierende Faktor für die erreichbare Auflösung ist die Partikelgröße im Lack.
(Ich gehe einfach mal davon aus, dass sich der Strahl mit entsprechendem Aufwand ausreichend fein fokussieren und ausrichten / steuern lässt.)


EBeam-Lacke:

(nicht ganz mein Fachgebiet, Google meint dazu)

"E-beam resists are polymer films that change solubility when hit by electrons, enabling high-resolution patterning for microfabrication; positive resists (like PMMA) break polymer chains to become more soluble for removal, while negative resists (like HSQ) cross-link to become less soluble, leaving the exposed parts intact, after which a developer solution selectively washes away one part to define the pattern."


Fotolacke:

https://en.wikipedia.org/wiki/Photoresist

Ich kenne das Funktionsschema leicht anders. Im Fotolack findet eine katalysator-indizierte chemische Reaktion statt. Der Katalysator (z.B. ein Metallion) wird als Komplexmolekül in einem chemischen Käfig gepackt, welcher durch die Photonen zerstört wird um den Katalysator freizusetzen. Aber vielleicht ist mein Kenntnisstand veraltet?


Ionenstrahlen würden nun die Möglichkeit bieten, den Katalysator in Form von langsamen / energiearmen Ionenstrahlen direkt zu applizieren.
Das setzt voraus, dass der Fotolack in einer molekularen dünnen Schicht (optimal: monomolekular ?) vorliegt, da solche Strahlen die Oberfläche anstatt des Volumens erreichen. Das wiederum ist für eine feine Strukturgröße ohnehin vorteilhaft / notwendig.

Im beschriebenen Fall dass Photonenstrahlung eine Säure freisetzt (H+ Ionen = Protonen) welche die Reaktion katalysiert, könnten dies auch Ionenstrahlen in Form von Protonenstrahlen übernehmen.


Der Vorteil wäre dass in bekannten Lackstrukturen eine Strukturkompenente (der Komplex-Käfig bzw der Protonendonator) wegfallen könnte,
wodurch die Lackhomogenität steigt. Dies bringt Vorteile bei feinen Strukturgrößen (Edge Roughness) und ermöglicht wiederum dünnere Lackschichtdicken (siehe oben).
Die "effektive" Partikelgröße des Lacks sinkt.


In den obigen Quellen fällt auf, dass all diese Lacke als polymerbasiert beschrieben werden, also "relativ grosse" und in ihrer Größe "variable" Moleküle.
Für eine geringe Partikelgröße des Lacks wären jedoch kleine und in ihrer Größe bzw Komposition wohl definierte Moleküle vorteilhaft. Vielleicht öffnen hier Ionenstrahlen interessante chemische Möglichkeiten.



Noch etwas weiter gedacht:

Wird ein negativ (vor)geladener Wafer mit langsamen Metallionen-Strahlen gerastert, können direkt Metallstrukturen erzeugt werden.
Also ohne Lithographie, Lack, Entwickeln, etc.
Gerade der Verzicht auf einen Lack als Strukturierungshilfe entfernt ein gewaltiges Hindernis auf dem Weg zu sehr kleinen Strukturgrößen.

Dicke Metallstrukturen sind natürlich zeitintensiv, aber monomolekulare Strukturen wären interessant.
Diese könnten zum einen als Maske für weitergehende Strukturierungsprozesse dienen.
Zum anderen ist dies mit Hinblick auf "leitfähige 2D Materialien" interessant, also dem Schritt von elektrischen Volumenleitern zu (Ober)Flächenleitern.

Also eine Art strukturierte ALD bzw ALE Variante.

Tobalt
2025-12-19, 22:46:43
Ich habe ja sowas ähnliches schon zu GAA geschrieben: kleiner zu bauen ist niemals selbstzweck. Und EUV ist eben aus vielerlei Hinsicht schon sweetspot, wie im vorfeld ausgeführt. Alles was man an lateraler Dichte noch rausholen will, wird man mit EUV (mglw. mit noch mehr NA, oder minimal kleinere Wellenlänge herausholen.

Aber im großen und ganzen sehe ich keine krasse Verringerung der 2d maße mehr kommen. Die Specs werden auf andere Weise noch erhöht werden, eben wie mit GAA, noch ein paar andere Materialien, andere Schalter (Tunnel FET usw), 3d stacking von einigen wenigen Lagen...

Aber auch da wird wohl in spätestens 20 Jahren alles ausgeschöpft, was boolsche ALUs betrifft. Nicht physikalisch, aber was man ökonomisch auf Waferskala hinbekommt.

Und zu diesem Zeitpunkt werden dann ganz natürlich jene Rechenkonzepte erst interessant und dann vorbeiziehen, die eben nicht auf klein und kleiner angewiesen sind. Analoge Coprozessoren..

Es kann auch länger dauern, wenn die Specs von Bool ALUs durch clevere Tricks noch weiter ausgereizt werden können, aber ich bin mir ziemlich sicher dass bei der lateralen Dichte nicht mehr so viel passiert.

Badesalz
2025-12-19, 23:12:03
Was sind da die realen Anwendungsfälle? Ok Musks Optimus v34 wird zwischen den Nippeln die Rechenleistung eines heutigen NVL72 haben und dafür 15W von seinem Energiebudget opfern müssen. Deal. Was ich mir übrigens immer weniger toll vorstelle...

Sonst so? Es wird eine Sättigung geben. Für uns selbst jedenfalls ist das immer weniger praktisch interessant und damit immer weniger aufregend. Mehr nur noch rein aus der Techneugier. Wie beim Netzzugang, wo ich ich mir letztens einen ganzen Artikel reingezogen habe wie Nokia in Australien eine reale Internetverbindung mit 100G-Pon vorgeführt hat.

Das hat mich persönlich aber nicht heiß gemacht, so wie damals, als ich noch 6Mbit hatte und die ersten erzählten, es wird wohl doch noch 50Mbit möglich werden. Es gibt für alles eine Sättigungskurve. Ähnlich NVMe 5.0... So wie die möchtegern Nerds die sich bei den Glotzen über 4800 Nits unterhalten? Eine Smartwatch mit der Leistung eines M5 Max? Und dann? Für?

Oder was meint ihr? Keine Ahnung was man damit machen sollte :smile:

Skysnake
2025-12-20, 07:11:48
Ein ganz heißes Eisen sind personalisierte Medikamente. Da brauchst du Exaflop in richtig günstig damit du dad Ergebnis schnell genug aber auch günstig genug bekommst.

Naja und dann halt die ganze Industrie. Je billiger Rechenleistung ist desto mehr kann man die Designs optimieren und damit die Kosten senken.

Wetter und nicht mehr Klima sind auch so Dinge in die du beliebig viel Rechenleistung stecken kannst.

Autonomen Fahren bzw Robotic ist dann auf der unteren Leistungsskala wichtig. Da ist jedes Watt gesparte Leistung einfach super. Erhöht das doch die Nutzungsszeit und beim Auto damit die Reichweite.

Für Privat wird es allerdings tatsächlich immer dünner. Vielleicht noch AR Brillen in leicht und langer Laufzeit.

Wie auch immer. Es gibt noch immer gewaltige Bereiche die nach mehr Leistung und höherer Effizienz gieren und das für sehr sehr lange noch.

Badesalz
2025-12-20, 09:20:38
Ein ganz heißes Eisen sind personalisierte Medikamente. Da brauchst du Exaflop in richtig günstig damit du dad Ergebnis schnell genug aber auch günstig genug bekommst.Check.
Naja und dann halt die ganze Industrie. Je billiger Rechenleistung ist desto mehr kann man die Designs optimieren und damit die Kosten senken.Auch check.
Wetter und nicht mehr Klima sind auch so Dinge in die du beliebig viel Rechenleistung stecken kannst.Das dagegen - die Güte dessen - basiert darauf wie gut die Modelle sind. Das Raster zu verkleinern verbessert sie nicht pauschal. Einfach nur mehr Speed bedeutet da u.U., daß man viel schneller genauso daneben liegt wie man es auch bisher tat. Klima und Wetter sind verzahnt. Das Klima verändert sich, unsere Modelle, die auf Jahrzehnte Erfahrungen aufbauen, werden dadurch nicht grad besser...
Autonomen Fahren bzw Robotic ist dann auf der unteren Leistungsskala wichtig. Da ist jedes Watt gesparte Leistung einfach super. Erhöht das doch die Nutzungsszeit und beim Auto damit die Reichweite.Check.
Für Privat wird es allerdings tatsächlich immer dünner. Vielleicht noch AR Brillen in leicht und langer Laufzeit.Das war eben mein Gedanke. Am Anfang dieses Threads freute man sich sozusagen noch unmittelbar für sich selbst. So langsam aber nur noch mittelbar.

Bei den Großen Eisen wird mittlerweile einfacher sich was auszudenken als für einen selbst. Athlon500 mit Mäuseklavier auf 950 war richtig geil, fühlte sich aber trotzdem wie ein Tropfen auf den heißen Stein. Heute denke ich über CPU-Leistung nicht mehr nach.

Platos
2025-12-20, 11:23:57
Gibt halt Leute, die das noch tun. Ich weiss, für die meisten hier besteht die Welt nur aus Gaming, aber es gibt auch noch anderes. Das sind natürlich weit weniger Nutzer, aber z.B bei videoencoding kann man nie genug CPU-Perfomance haben und bei Videobearbeitung/Filtering auch nicht und je nach dem was man tut, kann man auch niemals genug GPU-Power haben.

Der Speicher (VRAM) ist dann aber auch ein Thema. Je nach Nutzungsszenario das limitierende.

Abgesehen davon: LLMs lokal privat auf dem Rechner: Hier gibts noch vieeel Luft nach oben. Für den Normalsterblichen ist das gar nicht möglich auf dem eigenen Rechner (wenn man was gutes mit hoher Kontextlänge haben will). Aber das liegt natürlich primär am Speicher, aber nicht nur.

Aber der Hauptfehler, den die Enthusiasten hier immer machen, ist nur in Enthusiasten-Hardware zu denken. Klar kann man mit einer RTX 5090 und einer aktuellen Top-End CPU schon ziemlich viel, aber bis diese Leistung im Mainstream ankommt, gehts schonmal ne Weile. DAS ist euer denkfehler hier. Ihr denkt nur an der Spitze und schaut dann basierend darauf auf die Masse. Es geht aber bei der Masse nicht um die Spitze, sondern um Mainstreamhardware.

Es ist noch laaange Luft nach oben und 14A wird hier nicht die Grenze für Mainstreamhardware sein. Bis die Leistung einer 5090 bei einer xx60 angekommen ist (bzw 300-350Euro Bereich), gehts noch lange. Bis sie im 250 Eurobereich angekommen ist noch länger.

Badesalz
2025-12-20, 11:55:36
Media.
Wobei das auch immer als Beispiel auftaucht, aber daß die Welt aus nennenswert vielen Exemplaren besteht die Videos bearbeiten, das fiel mir egal wie weit ich die Kreis im Umfeld ziehe, mein Lebenlang noch nicht auf.

Selbst wenn man mit den Handy oder der Cam Videos macht, was sehr wohl massiv mehr ist als früher, werden sie eben so belassen wie aufgenommen. Das Interesse an Recoding besteht tatsächlich schonmal, aber das betrifft nur die allgemeine Kompatibilität mit dem Gerätepark. Einmaliges umkodieren, wenn denn, von max. 10min. Stückchen.

Ich selbst kenn nur obiges und Youtuber/TikToker. Die Spezi die sich da nicht berufsbedingt noch irgendwo dazwischen bewegt erscheint mir bisher SEHR selten...

Leute mit LLMs kenn ich nur aus den Foren. Prompten betrifft eh weniger den zufälligen Fußgänger. Vor allem lokale. Das nutzt zwar bereits LLMs, aber über vorgesetzte Regler und Knöpfe. Für mehr ist sowieso keine Zeit da.

Zocken.
Ja, aber wohl eher nicht die 20 Jahre von denen hier die Rede war (im Bezug auf Nodes). 14er Node ist grad noch nicht greifbar, aber trotzdem klar sichtbar.

Ich meinte eher so... zukünftig.
Das erinnerte mich hier an meine vielen Interviews zum Thema Glasfaser. Wer eh auch noch eine schlechte Leitung hatte, ging steil als sie zum ihm ins Haus kam. Glasfaser in aller Munde. Mit der immer größeren Verbreitung zeigt sich eine eindeutige Mehrheit der 300/150 völlig ausreicht. Sättigungskurve vorerst erreicht.
Fürs gleiche Geld 500/250? Ja kein Ding, aber nur wenns nicht 1€ mehr kostet. Notwendigkeiten gibt es anscheinend keine in der Menge.

Skysnake
2025-12-20, 12:12:45
Ja, für den Privatanwender gibt es nicht mehr viel bei dem die verfügbaren Leistung nicht ausreicht. Wenn dann nur in günstiger, sparsamer und portabler.

Aber absolute Leistung gibt es an sich nichts mehr bei nem Single Node Server System bei dem Privat noch Wünsche haben sollte. Wenn ist es ihm halt einfach zu teuer. Das wars dann aber auch.

Platos
2025-12-20, 12:32:52
Die rede war von Privatanwender. Ich habe nicht gesagt, Videobearbeitung wäre eine Massenerscheinung. Ich habe LLM, Videobearbeitung und AI-Videobearbeitung als beispiele genannt. Das ist eine Nische, ja, aber es sind privatanwender. Bei LLM lokal hingegen halte ich es für möglich (je nach gesellschaftlicher Aufmerksamkeit), dass lokale LLMs relevant werden könnten irgendwann in den nächsten 20 Jahre. Oder die "dumme Masse" will sich abhängig machen und abos bezahlen. Ist natürlich auch möglich

Und dann bezüglich Masse (separates Thema): Ja richtig, wenn dann "nur" noch günstiger, portabler und sparsamer. Ist ja nicht das Hauptthema bei Fortschritt bei Hardware, aber ok :D "Nur"

Also nochmals: Kommt mal aus der Enthusiastenblase raus.

Und bezüglich Zeitraum @Badesalz: Du hast von unterhalb 14A geredet (und ich auch), jetzt redest du aber von über 20 Jahren. Das ist aber eine plötzliche Wendung in deinen Zeitangaben. 14A kommt weit bevor die 20 Jahren kommen. Also du musst dich schon entscheiden ;)

In 20 Jahren werden wir vlt. eben schon andere technologien drinn stecken (Photonics oder eben X-Ray Belichtung mit Elektronik). Ich glaube aber nicht, dass die Technik dann exklusiv für Server ist und Hardware für consumer dann auf dem alten bleiben. Dafür müssten neue Prozesse weniger wirtschaftlich sein bei gleicher Perfomance als die alten. Dann werden sie aber von niemandem genutzt ausser Spezialszenarien.

Badesalz
2025-12-20, 12:33:58
Wobei das nicht der Plot sein soll, damit langsam aufhören zu können. Alles gut. Mir fehlt nur irgendwie die frühere Aufgeregtheit :tongue: Was einerseits auch schade ist, aber die Dramatik der Gespräche kann ich irgendwie nicht mehr teilen.

Sparsamer geht natürlich immer. Für mehr Leistung aber fehlen mir bei Portables z.B. die Bedinungskonzepte mit welchen man das umfänglich umsetzt. Oder die nötige Visualisierung (große). Hier wäre eher Perf/Watt der King, aber das trägt meist nur noch zu Bequemlichkeit bei. Nicht zu neuartigeren Einsatzgebieten.

Doppelt so schnelles Unify Fiber der keinen Lüfter mehr braucht und dabei nur noch halb soviel vom Netzteil zieht ist dann natürlich unumstritten WOW.
Apropso. Das Thema connectivity gibt es halt auch. Die Energie die man dafür braucht lässt sich nicht einfach mit Nodes erschlagen und IT die heute nicht im Netzwerk ist kann man für kaum was gebrauchen :usweet:

@Platos
Da hab ich mich irgendwie schwer vertan. Ich dachte bei dem Thema bin ICH außerhalb der Blase und betrachte das aus der nicht-enthusiasten Sicht :wink:

Platos
2025-12-20, 13:01:51
Ich habe versucht zu erklären, dass ich 2 verschiedenen Szenarien eingebracht habe: Einmal kleinere Nischenszenarien (Ja, Enthusiastenszenario), aber immer noch im privatanwender bereich (darum gings) und einmal bezogen auf die Masse.

Ich habe das ja nochmals versucht zu verdeutlichen.

Und Achtung: Nischenanwender (Enthusiastenszenario) und Enthusiastenhardware meint nicht zwingend das Gleiche: Ich kann auch Nischenanwender sein und trotzdem keine Enthusiastenhardware nutzen. Was ich gesagt habe (oder gemeint) war, dass man in Bezug auf die Grundfrage "wie viel mehr brauchts überhaupt noch (für Privatnutzer)" nicht die Enthusiastenhardware als Bezugspunkt nutzen darf, sondern die Mainstreamhardware. Ich kann aber wie gesagt auch Nischenanwender mit Mainstreamhardware sein.

Und die Aufforderung war an alle gerichtet.

Vom Prinzip her ist das das gleiche, wie bei der Kernanzahl. Da sagen dann alle gleich immer "Brauchts nicht, wir haben ja schon 16 Kerne". Aber es geht nicht immer um das Maximum, sondern um das, was im Mainstreambereich (im "Preisbewusten" Segment) möglich/verfügbar ist. Und das sind 2 ganz unterschiedliche Paar Schuhe.

Wörns
2025-12-20, 14:45:54
Wir sollten froh sein, wenn wir überhaupt die Wahl haben, nicht die neueste heiße Sch... zu benötigen.
Was, wenn ein zukünftiges, hypothetisches Windows100 abgekündigt wird und man für Window111 mindestens tausend Kerne der letzten oder vorletzten Fertigungsgeneration benötigt?

Ich meine, wir erleben es doch gerade, dass vollwertige Windows10 Arbeitspferde, die noch zehn weitere Jahre ihren Dienst für Standardaufgaben bestens verrichten würden, der geplanten Obsoleszenz geopfert werden. Der Normalanwender wird sich jetzt kein alternatives Betriebssystem installieren, bloß weil das geht.

Insofern ist die Diskussion, welche Hardware man wirklich benötigt nur die halbe Rechnung. Die andere könnte sein, dass ein Gatekeeper sagt, ohne riesiges LLM und sonst welchen Schnickschnack, an den wir heute noch gar nicht denken, kommst du hier nicht mehr rein.

Ich sehe die Zukunft nicht so von Anwenderwünschen vorherbestimmt, leider.
MfG

Badesalz
2025-12-20, 20:23:24
@Platos
Wir reden leicht aneinander vorbei. Wenn ich Sättigugnskurve meine, dann gilt die natürlich nicht für die Nische der Enthusiasten. Andererseits aber, wenn man denn mal hinguckt, ist der Mainstream außerhalb des Gaming-Mainstreams, auch fast schon gesättigt...

@Wörns
Ja, richtig. Wir werden verarscht. Mal mehr, mal weniger. Aktuell bisschen mehr als nur mehr.

Tobalt
2025-12-21, 10:01:58
Software enshittification ist hier OT. Und man hat ja, zumindest als Privatanwender, die Lösung eine nicht enshittifiedte Software/OS zu nutzen.

Deshalb zur Fertigung: IMO kennzeichnet das aufkommen von GAA, dass das laterale Scaling nicht mehr länger als ein ökonomisch und physikalisch sinnvoller Weg zur Verbesserung der Specs angesehen wird.

Was würde eurer Meinung nach gegen diese recht fundamentale Aussage sprechen?

Badesalz
2025-12-21, 10:08:16
Was denn schon... Es wird imho kein Weg dran vorbei geben. Auch wenn es Fläche kostet. Der Merhaufwand ist schon nicht ohne. Trotzdem will das jeder machen der dazu in der Lage ist.

edit wegen "ökonomisch":
TSMC behauptet dabei trotzdem (und weiterhin), daß es keine allgemein geltende (R)Evolution damit geben wird und 3nm noch sehr lange genutzt werden und bleiben. Bis in ihre Brot&Butter Ära.
Also imho irgendwie, wenn sie mal von 2nm auf kleiner umstellen, wird 3nm weiterhin im Volumen bleiben oder gar noch lange weiter steigen und es wird nicht mehr so schnell (im Schnitt knapp über 2 Jahre bisher) von oben nach unten durchgereicht wie das bisher meist war.

Schätze die Kosten bleiben wohl konstant sehr hoch im Vergleich und damit diesmal elendig lang nur für das top-end des jeweiligen Segments wirtschaftlich annehmbar.

edit wegen Tech:
Die Fantasieroadmaps von 2023 mit A10, A7 und A5 usw. sind irgendwie mittlerweile bei allen aus den offiziellen Pressemappen verschwunden und hören mit A14 auf oder? Ich hab irgendwie das Gefühl, daß eher CFET vorgezogen wird...

Skysnake
2025-12-21, 11:29:01
Das ist auch der logische Schritt. Danach ist dann aber auch Schicht im Schacht

basix
2025-12-21, 11:51:40
Ich hab irgendwie das Gefühl, daß eher CFET vorgezogen wird...
CFET hat halt die sexyness, dass sich die SRAM Density praktisch verdoppeln kann. Und genau danach gieren alle Chip-Designs (3D-Stacked SRAM zeigt das auch auf). Und das zusätzlich ohne grosse Verkleinerungen bei Contact und Metal Pitch usw.

Und bei CFET kann man anscheinend noch weitere Scaling Booster für SRAM freischalten:
https://arxiv.org/abs/2503.06448
https://www.imec-int.com/en/press/imec-proposes-double-row-cfet-a7-technology-node

Hier noch was Neues von der HBM auf GPU Front: Thermische Bottlenecks minimieren
https://www.imec-int.com/en/press/imec-mitigates-thermal-bottleneck-3d-hbm-gpu-architectures-using-system-technology-co

Badesalz
2025-12-21, 11:57:23
Ich hab irgendwie das Gefühl, daß eher CFET vorgezogen wird...Ich meine es in eben dem Sinne, daß es früher erst für A5 geplant wurde. Aus der heutigen Sicht (meiner natürlich) könnte das nach A14N und A14P :wink: schon mit A14+ :D kommen.

PS:
Was CFET ist wäre mir eigentich schon so halbwegs klar. Wurde auch hier im Thread bisher nicht nur einmal angesprochen.

basix
2025-12-21, 12:01:18
Schon klar, dass die Leute hier Bescheid wissen ;)

Mir ging es um den Punkt, dass CFET deutlich mehr Vorteile bietet als weitere reine Optical Shrinks. Deswegen kann es schon sein, dass TSMC deswegen CFET mehr pusht als initial geplant. Evtl. auch, weil N3 und N2 und optische Shrinks wohl mehr Probleme als erwartet verursacht haben und verglichen mit dem Zeitplan vor ein paar Jahren deutlich später dran sind. Und die letzten 2 Jahre gab es ja Meldungen, dass TSMC bei CFET relativ früh bereits vielversprechende Resultate erzielt hat.

Badesalz
2025-12-21, 12:24:21
N3 entwickelt sich eigentlich recht gut weiter. Vor nicht allzulanger Zeit noch gab es noch große Entwicklungsschritte im Verfahren gegeben (Ausbeute). Wenn man z.B. gut 7nm drauf hatte, dann waren 5nm überschaubar machbar (nur so ein plakatives Beispiel).
Das scheint es so auch nicht mehr zu geben.

Wobei, 2nm war für Mitte 2025 gedacht, wurde aber schon Anfang 2025 released. Als Grund wurde eine "beispiellose Nachfrage" genannt. Kein Wort über unerwartet große Fortschritte :rolleyes:
D.h. es wurde eine Art späte Beta gelauncht, weil die Kundschaft das trotz noch vergleichbar dürftiger Ausbeute trotzdem schon haben wollte und es halt akzeptierte.

Platos
2025-12-21, 14:31:06
Schon klar, dass die Leute hier Bescheid wissen ;)

Mir ging es um den Punkt, dass CFET deutlich mehr Vorteile bietet als weitere reine Optical Shrinks. Deswegen kann es schon sein, dass TSMC deswegen CFET mehr pusht als initial geplant. Evtl. auch, weil N3 und N2 und optische Shrinks wohl mehr Probleme als erwartet verursacht haben und verglichen mit dem Zeitplan vor ein paar Jahren deutlich später dran sind. Und die letzten 2 Jahre gab es ja Meldungen, dass TSMC bei CFET relativ früh bereits vielversprechende Resultate erzielt hat.

Mit CFET kann man aber auch "nur" 2x mehr Transistoren pro Fläche haben. Wenns dann Richtung 4-Fach geht (also 2x stapeln), dann wird es kritisch hinsichtlich Energiedichte (ist ja so schon krass). Und die Defekte würden ja auch nicht gleich bleiben, wenn man in die höhe baut. Bei drölf schichten hat man dann auch viel höhere Defektraten pro Fläche.

Und bei SRAM dann genau so: Defektrate nimmt hald irgendwann zu. Wenn du 2 Logikschichten hast + noch 2x SRAM oben drauf, will ich nicht wissen, wie schlecht am Ende der Yield ausfällt. Wahrscheinlich besser, als das Selbe in 2D, aber sicher nicht gleich gut, wie die selbe Fläche in 2D.

Also "In die Höhe bauen" als neue "Shrinking"-Methode halte ich jetzt eher für unrealistisch. Ein paar mal vlt, aber sonst?

Edit: Wenns nicht wirtschaftlich sein muss, kann man natürlich vieles, aber ich meine natürlich so, dass die gleiche anzahl Transistor weiterhin billiger wird.

Skysnake
2025-12-21, 14:36:23
Naja, realistisch betrachtet sind wir spätestens mit CFET am Ende und du rennst dann mit Steong inversion gegen die Wand.

An sich muss der Umstieg auf weak Inversion kommen. Dann verlierst du aber halt Größenordnungen an Takt. Ich sehe aber keinen anderen Ausweg.

Badesalz
2025-12-21, 15:49:41
@Skysnake
Womit soll weak inversion kompensiert werden, damit es als beser gilt? Einfach nur "Größenordnungen" mehr Breite? Märchenhafte IPCs?

Skysnake
2025-12-21, 16:14:24
Durch mehr und breitere Einheiten.

Mit sinkendem Takt werden Vektorarchitekturen auch wieder interessanter.

Und naja große Caches. Wobei man sich da auch über in memory Compute wieder mehr Gedanken machen kann.

Die Architekturen ändern sich. Aber du sparst halt sehr viel mehr Power als du an Taktfrequenz verlierst.

Für Serielle Probleme aber natürlich ein Todesstoß....

Badesalz
2025-12-21, 17:53:39
Na das sind doch tolle Aussichten...

Skysnake
2025-12-21, 21:58:28
Ja gell das macht so richtig Vorfreude auf sie Zukunft

Platos
2025-12-21, 22:18:35
Dann wäre das aber maximal für spezialisierte Serverhardware und co. Attraktiv und nicht für Consumerhardware.

Dann hoffe ich persönlich mal drauf, dass Röntgenstrahlenlitographie zeitig was wird. Hoffnung stirbt bekanntlich zuletzt. Wer weniger weiss, kann dafür mehr hoffen :D

Wobei mich das Speicherproblem eig. mehr anpisst. Gehört das Thema auch hier hin? Speicherchip-Fertigung ist ja eig. auch passend für den Threadtitel m.M.n oder aber mittlerweile wenigstens mindestens genau so wichtig und interessant.

Gibt es eig. Infos zu DRAM Stackong/Layering wie bei NAND Layers ? Bei DRAM gehts vermutlich auch nicht mehr lange weiter mit normalem shrinken.

Ewig kann man die Speicherchipkapazität von z.B GDDR RAM auch nicht verdoppeln pro Generation. Mit Layers könnte man, da noch viel machen, wenn es so gut geht wie mit NAND. Aber kenne mich damit nicht so aus.

Skysnake
2025-12-21, 22:32:56
Hä DRAM wird doch schon heute gestapelt, nur eben nicht innerhalb von Wafer. Wobei ich dafür nichtmal meine Hand für ins Feuer legen würde. DRAM und NAND verfolgen ich nur am Rande.

An sich sollte DRAM aber schon recht lang tot sein weil man die Kapazitäten eigentlich nicht mehr verkleinern kann. Man kann nur noch die Fläche skalieren und mit dem Dielekt spielen.

Aber so wirklich näher zusammen bekommt man die Plattenkondensatoren auch nicht mehr.

Deswegen wird ja auch bei DRAM gestapelt.

Edit:

Und auch jeder Server braucht hohe single Thread Leistung weil es eben immer seriellen Anteile gibt und sogar ganze Bereiche bei denen man einfach nicht weit skalieren kann.

Typische Beispiele sind Strukturmechanik und Materialwissenschaften.

Gerade beim letzteren rechnest du teils Monate lang mit wenigen Cores. Gern mal nur nen paar Dutzend .

Deswegen gibt wa in dem Bereich ja auch FPGA Lösungen und sogar ASICs, die solche Probleme rechnen...

Aber auch da rennst du halt gegen die Wand.

Platos
2025-12-21, 23:52:50
Ja, ich meinte eben so wie bei NAND quasi "In-Die-Stapeln". Also stapeln ist das falsche wort, Layer passt da besser, wie bei NAND, da gibt es doch mittlerweile mehrere hundert Layer übereinander.

Oder ich bin hier komplett hinterher mit dem Wissen. Ich beschäftige mich nämlich auch nicht so wirklich mit NAND und DRAM Fertigung. Aber ich dachte, es wäre mal Zeit ^^

Tobalt
2025-12-22, 07:28:02
Naja, realistisch betrachtet sind wir spätestens mit CFET am Ende und du rennst dann mit Steong inversion gegen die Wand.

An sich muss der Umstieg auf weak Inversion kommen. Dann verlierst du aber halt Größenordnungen an Takt. Ich sehe aber keinen anderen Ausweg.

Das zeichnet sich ja schon lange ab, weshalb eben völlig andere Algorithmen (bspw neuronale Netze) Arithmetikkonzepte (analog) kommen werden.

Um die Spannung senken zu können, tut man ja schon heute gefühlt "alles". Aber für Endanwender-CPUs mit weitem Temperaturbereich ist weak inversion wohl einfach zu instabil. Da nimmt man deutliche Margins in Kauf. Man schaue nur mal wie weit man Zeug heut meist undervolten kann ohne Stabilitätsprobleme...

Da muss man auch künftig solche Stabilitätsreserven vorhalten. Ein Ausweg wären Tunnel-FET oder NC-FET. Niedrigere Spannung und trotzdem stabile Ausgangsimpedanz. Das Problem bei TFET ist wohl immernoch dass denen (noch?) der Bums fehlt für viel Fanout bzw. die Ausgangsimpedanz insgesamt eher hoch ist. Bei NC-FET scheint das Problem, die Parametertoleranzen eng genug in den Griff zu kriegen. Letzteres klingt für die Magier von TSMC et al. aber doch machbar ;)

Badesalz
2025-12-22, 07:53:07
Und auch jeder Server braucht hohe single Thread Leistung weil es eben immer seriellen Anteile gibt und sogar ganze Bereiche bei denen man einfach nicht weit skalieren kann.

Typische Beispiele sind Strukturmechanik und Materialwissenschaften.Bitte? Die beiden sind auf NV Folien immer auf den Top5 was man mit GPUs alles machen kann :tongue: :wink: Natürlich immer brav hinter den Medikamenten die Krebs besiegen sollen...

Haben wir überhaupt - hier, kontextbezogen - was höhere Leistungen angeht ein Speichermengen_problem? Oder ist das eher ein Speicherdurchsatz_problem?

PS:
Will man hier im Thread korrekterweise nicht haben, aber das Gefühl ist eigentlich nahezu allgemein, daß man das meiste mit tidy out von Programmiersprachen/Programmiertechniken, von IDEs, von Compilern und dem Umgang mit Traces erreichen könnte. Damit beschäftigen sich nur Bereiche die embedded/SoC fahren. Der Rest hat gelernt drauf zu shicen, weil erst TMSC und dann die Kundschaft badet das ja in der nächsten Runde mit ihrem eigenen Geld wieder aus.
Bin sehr gespannt wie es auch da noch weitergeht. Ist aber OT hier.

edit:
Bei NC-FET scheint das Problem, die Parametertoleranzen eng genug in den Griff zu kriegen. Letzteres klingt für die Magier von TSMC et al. aber doch machbar ;)Jedenfalls haben sie vor glaub ich 5 Jahren (?) schonmal ein umfangreiches Patent diesbezüglich eingetütet ;)

Skysnake
2025-12-22, 09:04:38
Das zeichnet sich ja schon lange ab, weshalb eben völlig andere Algorithmen (bspw neuronale Netze) Arithmetikkonzepte (analog) kommen werden.

Ja bei Algorithmen schaut man das man sich da in die Richtung bewegt mehr Compute und weniger Memory Access zu machen. Das sind aber auch keine Wunderwaffen die immer schneller sind mit moderner Hardware und gleichzeitig alle Probleme lösen können. Was neuronale Netze anbelangt ist das einfach interpoliert in meinen Augen. Wenn du dir anschaust das da gemacht wird, dann wird da einfach der Designraum mehr oder weniger grob abgetastet und die Lücken nicht mit echten Simulationen gefüllt sondern mit Schätzungen. Interpolation trifft es nicht ganz an der Stelle. Ich habe bisher auch noch nicht gesehen wieviel Rechenleistung in die Erstellung des Modells geht. Das scheint nämlich teils substanziell zu sein. Sprich wenn du das nicht sehr oft wiederverwendet kannst ist es am Ende vermutlich teurer als die Sachen einfach zu rechnen.

Was mir auch bisher fehlt sind Aussagen dahingehend wie hoch die Unsicherheit der Schätzung der KI ist. Also wieviel Unsicherheit ist da drin. Das ist halt entscheidend!

Von daher sehe ich da aktuell sehr viel Marketingbullshit ohne belastbare Fakten. Mir kommt das eher so vor als ob man da ein digitalisierten Ingeniersschätzeisen hat. Also das was ein fähiger Ingi mit viel Erfahrung zu einem großen Teil auch so macht.

Ein gutes Datamanhement der über die Jahre gemachten Simulationen wirkt für mich da sinnvoller.

Okok. Je kleiner du bist desto mehr Benefit kannst du daraus ziehen, weil du eben diesen Erfahrungsschatz nicht aufbauen kannst. Aber dann hast du das Problem das wenn du drauf zugreifen kannst du sicher auch deine eigenen Daten hergeben kannst. Am Ende entwertet man seine eigene Arbeit indem man den Softwarehersteller füttert. Und der hat einen dann an den Eiern und zieht die Preisschraube immer weiter an.


Um die Spannung senken zu können, tut man ja schon heute gefühlt "alles".
Jaein. Wenn du komplette Schaltungen meinst ja schon. Aber nur im Rahmen von dem das man in Strong inversion bleibt. Sonst passen die ganzen Modelle nicht mehr! Heute haben wir z.b. Mindestens high, normal und low Vt Transistoren. Du kannst je nach Dotierung die Treshhold Spannung nämlich anpassen in gewissen Rahmen. Aber je niedriger Vt desto weniger diverse current usw usf. Es ist also immer ein Tradeoff. Meines Wissens nach wird das aber auch nur bei Highfreq bzw Analogen Designs - was am Ende das Gleiche ist - gemacht.

Aber auch hier arbeitest du in Strong inversion und damit ist deine Mindestspannung vorgegeben.
Steong inversion ist ja bei > Vth so 100mV+ wird da mindestens veranschlagt. Aber das sind ja keine Stufen sondern kontinuierlichen Übergänge. Daher ist man im Mittel wegen Yielt auch etwas weiter in der Strong inversion als man absolut müsste. Man kann ja sogar leicht aus der Strong inversion raus ohne das es sofort knallt, also je nach Headroom des Designs und dem kritischen Pfad.

Ich rede aber von weak inversion. Also deutlich unter Vth. Da sind die Unterschiede dann massiv. Und das macht keiner.

Was bisher halt gemacht wurde ist Vth zu senken und sich immer mehr Designmarge abzuknabbern.

Aber für Endanwender-CPUs mit weitem Temperaturbereich ist weak inversion wohl einfach zu instabil. Da nimmt man deutliche Margins in Kauf. Man schaue nur mal wie weit man Zeug heut meist undervolten kann ohne Stabilitätsprobleme...

Das hat erstmal nichts mit Stabilität zu tun. Du musst halt andere Modelle benutzen und genauer arbeiten. Aber Stabilität bekommst du das durchaus auch. Ist halt sehr sehr viel aufwändiger. Daher wird es nicht gemacht. Zumal deine Schaltung dann sehr sehr viel langsamer laufen wird weil deine Unity gain frequency dann halt auch sehr viel niedriger ist.


Da muss man auch künftig solche Stabilitätsreserven vorhalten. Ein Ausweg wären Tunnel-FET oder NC-FET. Niedrigere Spannung und trotzdem stabile Ausgangsimpedanz. Das Problem bei TFET ist wohl immernoch dass denen (noch?) der Bums fehlt für viel Fanout bzw. die Ausgangsimpedanz insgesamt eher hoch ist. Bei NC-FET scheint das Problem, die Parametertoleranzen eng genug in den Griff zu kriegen. Letzteres klingt für die Magier von TSMC et al. aber doch machbar ;)
Du hast da eigentlich immer irgendwelche Tradeoffs offs die es am Ende nicht ökonomisch Realisierbar machen. Ist ja nicht so als ob man bei den aktuellen Fets nicht auch noch was machen könnte wenn man mit Pferdefuß XY leben könnte. Das wird halt gerne übersehen.

Tobalt
2025-12-22, 09:36:35
Dje Toleranz bei Vth ist aber relativ hoch. Lass es 20 mV sein als Zahlenbeispiel. Wenn du da 50 mV oder mehr in strong inversion bist, spielt das keine Rolle.

Wenn du diese Schaltkreise aber in weak inv betreibst, dann ist das gleich mal ne drittel Dekade, also Faktor ~2 Streuung in der Ausgangsimpedanz. Nochmal mehr wenn sich die Temperatur ändert, insbesondere wenn die Temperatur innerhalb der ALUs inhomogen ist..

Für mich klingt weak inversion einfach unpraktikabel durch seine extreme Vth Abhängigkeit und extreme Temperaturabhängigkeit. Natürlich haben NC-FET und Tunnel FET auch solche Probleme und noch mehr :D.

Ich glaube alle Wege sind scheiße und der beste Weg ist es, die wirklich großen Durchbrüche nicht mehr bei Bool CMOS zu suchen.

Skysnake
2025-12-22, 10:20:13
Bitte? Die beiden sind auf NV Folien immer auf den Top5 was man mit GPUs alles machen kann :tongue: :wink: Natürlich immer brav hinter den Medikamenten die Krebs besiegen sollen...

Du musst da extrem aufpassen. Mit GPUs geht so einiges mit Quantumexpresso zum Beispiel, aber das sind halt nur gewisse Anwendungsfälle mit vielen Teilchen und Fernwirkung. Sprich du kannst da Teile explizit lokal rechnen und dann average Bilden und damit sie Fernwirkung auf die anderen Teile rechnen. Gerne ist hier dann auch das Berechnen eines Zustandes das Problem weil du eben so viel rechnen musst.

Wenn du aber nur eine geringe Anzahl von Atomen rechnest und dann alles Nahwirkung hat dann gz. Das bricht GPUs das Genick. Gerne tritt man auf sowas aber auch wenn man mit Infinitiv Platten usw rechnet. Also wirklich Materialwissenschagten. Gerne dann auch mit gewaltigen Zeitspannen. Man macht die Vereinfachungen um eben möglichst viel Simulationszeit rechnen zu können. Da sind GPUs eher verdammt schlecht. Da wird Gerne auch mal 1 Jahr an EINER Simulation gerechnet. Und an sich würden die gerne noch viel viel viel länger rechnen weil sich Ebene Prozesse aif unterschiedlichen Zeitskalen abspielen.

Deswegen gibt es ja auch die von mir bekannten FPGA und sogar ASIC Lösungen in diesem Bereich. GPUs hatten da noch nie ne Chance und werden es auch nie, weil das Problem einfach nicht passt und auch CPUs werden NIE mit FPGAs oder ASICs konkurrieren können und das war schon vor 10 Jahren so.

Man muss bei allem mit GPU extrem aufpassen. Da ist sooo viel Marketingbullshit dabei. Also gerade bei kommerziellen Codes. Wenn die auch nur irgendwo irgendwie geschafft haben das es schneller ist, dann wird da gleich auf die Kacke gehauen wie noch was. Im realen Betrieb sieht man dann aber meist, dass das Zeug im realen Betrieb einfach nur langsam ist oder sogar die eigenen Real World Probleme gar nicht lösen kann weil wegen die Bedinungen X X Z K L und M nicht erfüllt sind die aber GPUs voraussetzen. Speich die Toy Exapmles bekommen Sie irgendwie hin das wars dann aber auch. Selbst bei Fluid sieht/sah es da nicht verdammt schlecht aus bis vor kurzem. Erst dieses Jahr könnte der Switch wirklich erfolgt sein. Sprich man hat wirklich genug Abdeckung bei gleichzeitig relevantem Speedup. Aber auch jetzt ist das noch weit weit weg von nem NoBrainer. Und dafür wurde die Software am Ende einmal komplett neu gemacht. Der Absatz im alten Code rumzupfuschen ist voll gegeben die Wand gefahren bei dem Hersteller mit dem ich arbeite und das ist einer der Großen in der Industrie....

Und ich sehe da jetzt nicht wirklich faire Vergleich zwischen GPU auf der neuen Code Basis und CPU mit der neuen Code Basis. Mich würde es nicht wundern wenn die CPU Lösung nicht auch schon deutlich schneller wäre als der alte CPU Code. Aber so Vergleiche scheut man. Sonst sind die GPU Zahlen ja kleiner....


Haben wir überhaupt - hier, kontextbezogen - was höhere Leistungen angeht ein Speichermengen_problem? Oder ist das eher ein Speicherdurchsatz_problem?

Also klassisches HPC hat kaum noch Speichermengenprobleme. Man skaliert ja über viele Knoten wenn man mehr Leistung braucht. Die 12 Channel DualSocket Systeme liefern dir einfach schon 700GB. Das waren früher Bigmem Knoten und wenn man dann noch hybride Codes hat dann braucht man ja noch weniger.

Ich sehe in Mischbetrieb meist deutlich weniger als 5GB/core. Gibt genug Anwendungen die so gut skalieren das man nur 1GB/core braucht. HBM wird da jetzt definitiv interessant. Zu schade das es die MI300C nur für Microsoft gibt. Denn in dem Bereich ist Durchsatz oft deutlich wichtiger.

Im AI Bereich wird aber soweit ich das sehe voll auf Masse gesetzt. Damit kann man einfach größere Kontexte im RAM halten und muss nicht aufs Filesystem. Was oh Wunder langsamer ist.

Ich hatte auch dieses Jahr ein Paper gelesen, das es ja schneller sei so manches im RAM zu halten statt mit ner AI Bein Interefering immer wieder neu auszurechnen....

Oh man welch hochtrabenden Erkenntnisse aus der AI Ecke kommen....

Böse Zungen sagen ja auch, das AIs also insbesondere LLMs halt einfach.überfittete Funktionen sind und fertig. So ganz von der Hand zu weisen ist das nicht.



PS:
Will man hier im Thread korrekterweise nicht haben, aber das Gefühl ist eigentlich nahezu allgemein, daß man das meiste mit tidy out von Programmiersprachen/Programmiertechniken, von IDEs, von Compilern und dem Umgang mit Traces erreichen könnte. Damit beschäftigen sich nur Bereiche die embedded/SoC fahren. Der Rest hat gelernt drauf zu shicen, weil erst TMSC und dann die Kundschaft badet das ja in der nächsten Runde mit ihrem eigenen Geld wieder aus.
Bin sehr gespannt wie es auch da noch weitergeht. Ist aber OT hier.

Ja, schön den Kunden zahlen lassen.... das fällt denen früher oder später aber auf die Füße. Da werden ja gerne technische Schulden gleich mit angehäuft. Aktuell stehe ich da nem Hersteller auf den Füßen wegen und ich kann dir sagen das tut dem so langsam wirklich weh...

Skysnake
2025-12-22, 10:22:45
.
Ich glaube alle Wege sind scheiße und der beste Weg ist es, die wirklich großen Durchbrüche nicht mehr bei Bool CMOS zu suchen.
Das sehe ich durchaus ähnlich. Wir sind kurz vor der Wand und kommen kaum noch weiter. Egal wie viel Geld man drauf wirft.

Badesalz
2025-12-22, 12:18:05
Deswegen gibt es ja auch die von mir bekannten FPGA und sogar ASIC Lösungen in diesem Bereich. GPUs hatten da noch nie ne Chance und werden es auch nie, weil das Problem einfach nicht passt und auch CPUs werden NIE mit FPGAs oder ASICs konkurrieren können und das war schon vor 10 Jahren so.Ich muss ehrlich sagen ich hab einen Rack voll mit FPGAs so noch nicht gesehen. Die DoE Außenstellen =) blubbern auch immer was mit Materialwissenschaften, aber ich hab die noch nie über HW quatschen hören.
Was jetzt keine konträre Meiung darstellen soll. Mich wundert es nur, daß die FPGAs so konstant von der Bühne weg gehalten werden.
Man muss bei allem mit GPU extrem aufpassen. Da ist sooo viel Marketingbullshit dabei.Eigentlich zielte meine Aussage darauf hinaus ;)
Und ich sehe da jetzt nicht wirklich faire Vergleich zwischen GPU auf der neuen Code Basis und CPU mit der neuen Code Basis. Mich würde es nicht wundern wenn die CPU Lösung nicht auch schon deutlich schneller wäre als der alte CPU Code. Aber so Vergleiche scheut man. Sonst sind die GPU Zahlen ja kleiner....Du bist aber vorsichtig heute... Ich hab dich schon sagen sehen, daß es eine völlig idiotische Idee ist einfach alles stumpf auf die GPU zu werfen :wink:
Also klassisches HPC hat kaum noch Speichermengenprobleme.Mein Reden. Wer da bisschen dran blieb hat daheim im Tower auch schon 32GB. Dafür muss man nicht mal Nerd sein, sondern nur interessiert. Was soll da dann passieren? Bis auf brotlosen Zeitvertreib mit LLMs ist man da jenseits aller Nöten. Die Content-Heinis haben oft noch den Schritt auf 64GB und dann ist der Offen auch schon aus.
Es gibt keine technische Not mit RAM. Neuerdings halt nur eine finanzielle.
Ja, schön den Kunden zahlen lassen.... das fällt denen früher oder später aber auf die Füße.Das ist leider Gottes am Ende der Nahrungskette, also im Consumer-Bereich, nur selten der Fall. Man mault da einfach viel zu wenig, weil zu wenig Allgemeinkenne in der Masse. Die meisten davon erkennen Shice halt nicht wenn sie welche sehen, sondern erst wenn sie welche riechen.
(kein Vorwurf)

Skysnake
2025-12-22, 12:56:33
Ne ich bin nicht vorsichtig. Ich rede gerade von z.b. Fluiddynamik und das läuft schon ganz gut wenn du es richtig aufziehst. Der Punkt ist halt WENN.

Und wir haben riesige Mengen an legacy Code...

Man könnte Weltweit sicherlich mit 10 oder gar nur 1% der Rechenleistung auskommen wenn nicht so extrem vielen Leuten Performace shit egal wäre und man das wirklich richtig machen würde.

Badesalz
2025-12-22, 16:11:38
Man könnte Weltweit sicherlich mit 10 oder gar nur 1% der Rechenleistung auskommen wenn nicht so extrem vielen Leuten Performace shit egal wäre und man das wirklich richtig machen würde.Denke schon eher mit den 10%. Aber ja, so Wahr :usad:

PS:
Legacy code will ich aber nicht generell verteufeln. Das bedeutet ja nicht automatisch, daß es kacke programmiert ist, sondern meist, daß es neueres ISA Chichi nicht nutzt. Das muss nicht lahm sein. Was wir an legacy haben - oder, es so nennen - ist in ASM. Schon so lange, daß jeder es mittlerweile verstanden hat :usweet: Und niemand mehr möchte das nachbessern. Die Versuche führten alle zu keinerlei Verbesserungen. (ist halt nichts was brauchbar von SIMD profitieren könnte)

Selbst der Kollege der es gemacht hat und nächstes Jahr in den Ruhestand geht, kann es nicht mehr besser machen =)

Badesalz
2025-12-22, 17:22:05
Die EUV Kiste in China soll nicht mehr können als wenn sie aus Lego gebaut wäre :freak:

Skysnake
2025-12-22, 18:01:45
Denke schon, eher den 10%. Aber ja, so Wahr :usad:

PS:
Legacy code will ich aber nicht generell verteufeln. Das bedeutet ja nicht automatisch, daß es kacke programmiert ist, sondern meist, daß es neueres ISA Chichi nicht nutzt. Das muss nicht lahm sein. Was wir an legacy haben - oder, es so nennen - ist in ASM. Schon so lange, daß jeder es mittlerweile verstanden hat :usweet: Und niemand mehr möchte das nachbessern. Die Versuche führten alle zu keinerlei Verbesserungen. (ist halt nichts was brauchbar von SIMD profitieren könnte)

Selbst der Kollege der es gemacht hat und nächstes Jahr in den Ruhestand geht, kann es nicht mehr besser machen =)

Das ist aber die extreme Ausnahme. Wobei man auch da aufpassen muss. Ich habe auch so nen Code, der optimal ist. Aber halt nur optimal die der Datenstruktur... wenn man die anpassen würde, wäre sicherlich nen Faktor 2-3 an Speedup realistisch. Je nachdem könnte man vielleicht sogar Faktor 5 rausholen und dann auch darüber nachdenken das mal auf ner GPU laufen zu lassen.

Da bekommst du auch mit Assembler nichts besseres hin weil die Datenstruktur Grütze ist.
Halt keinerlei Memory alignment drin und auch kein padding im Struct...

Das sind halt so showstopper.

Wie gesagt ist dad aber schon die gute Ausgangslage. Ganz oft bricht man sich ja schon deutlich früher einen ab.

Solche Dinge muss man aber sehen und verstehen. Und ganz oft wird das leider auch als preoptimization verschrien und direkt mit dem Spruch abgeschlossen preoptimization is the root of all evtl.

Das ist genau so nen hirnloser Spruch wie Never Touch a running system...

Da steckt durchaus nen Funken Wahrheit drin die Leute haben dad aus Faulheit und Bequemlichkeit aber ins Absurde gesteigert, so das es am Ende mehr Scahdet als nutzt

Badesalz
2025-12-22, 18:59:36
Ok. Alles cool, aber schon sehr OT. Machen wir einen weiten Bogen zurück...
@all

Ja ok. Wir laufen zwar nicht mehr drauf hinzu, sondern nur gehen, weil wird das Tempo verlangsamt haben (bzw. geht es halt eh nur langsamer voran), aber wann - euch nach - sollen wir denn vor der Wall stehen? Die Märchenroadmaps sind jedenfalls alle verschwunden. Bedeutet?

Grob 2035? =)

Skysnake
2025-12-22, 20:57:06
An sich stehen wir schon jetzt an der Wand und pressen uns mir viel Mühe noch die Nase platt.

Im Endeffekt legst du halt mehr Geld hin und mehr Waferfläche zu belichten.

Schau dir doch die aktuellen Server an und was nicht ansteht. Das ist ganz viel Holzhammer dabei in meinen Augen.

Ich bin aktuell auch ganz klar dran die Nutzungszeiten für die HW zu verlängern im beruflichen Umfeld. Der Ersatz macht einfach immer weniger Sinn.

Von den aktuell explodierenden Preisen reden wir lieber erst gar nicht.

Badesalz
2025-12-23, 09:38:11
Die ganzen nach-vorn-guck Threads (alle) machen angesichts der aktuellen Lage irgendwie eh keinen Bock.

Sardaukar.nsn
2025-12-27, 13:00:10
Instead of copying ASML, Huawei developed a completely new EUV approach called laser-induced discharge plasma (LDP) — smaller, simpler, and potentially far cheaper. Combined with SMIC and a nationwide semiconductor push, China may have found a way around the sanctions wall.

QVbc41o8lQo

Badesalz
2025-12-27, 13:10:42
Das sind alles Gehversuche die aktuell in der Phase half-fake sind :up:

robbitop
2025-12-27, 15:10:28
Gepaart mit Industriespionage, reverse Engineering und zur Not hiring von Ex Leuten der Firmen die das entwickelt haben im Westen. China findet immer einen Weg X-D

Sardaukar.nsn
2025-12-27, 16:01:30
Huawei verfolgt hier wohl einen anderen Ansatz als ASML: https://www.elektronikpraxis.de/wenn-asml-nicht-nach-china-liefern-darf-muss-huawei-selbst-kreativ-werden-a-8c33ed45b69c15a2549a5da94e1cac07/

LDP ist eine kostengünstigere Lichtquelle als das von ASML verwendete lasererzeugte Plasma (LPP). Das LPP ist schwieriger zu handhaben, erzeugt aber eine höhere Plasmaleistung, was einem höheren Wafer-Durchsatz in der Lithografiemaschine entspricht.

Complicated
2025-12-27, 19:34:10
ASML hat wohl LDP und LPP zeitgleich evaluiert bis 2014 und sich für den Weg mit LPP entschieden.
Dieses Video ordnet die Gründe ein:
rIR3wfZ-EV0

Complicated
2025-12-27, 19:38:57
https://www.ntg24.de/Nvidia-Intel-TSMC-AMD-KI-Gefluester-26122025-AGD-Aktien#
Laut einem Bericht der Nachrichtenagentur Reuters hat Nvidia die Pläne für Chips aus Intels neuester Fertigung wohl schon wieder fallenlassen. Demnach wurde eine entsprechende Zusammenarbeit zwar evaluiert. Zufrieden war Nvidia aber mit den Ergebnissen allem Anschein nach nicht.
Bericht von Reuters: https://www.reuters.com/world/us/how-silicon-valley-dealmaker-charmed-trump-gave-intel-lifeline-2025-12-24/
A Commerce Department official said the U.S. stake gives Intel a shot at success but not a leg up, and Intel is not “too strategic to fail.” The official said further that Secretary Lutnick talks to all parties rather than prioritizing calls for Intel’s sake.
While Intel is picking up steam on the deals front, its manufacturing unit has struggled to produce quality in-house chips.

Nvidia recently tested out whether it would manufacture its chips using Intel’s production process known as 18A but stopped moving forward, two people familiar with the matter said. Nvidia did not answer a request for comment.

An Intel spokesperson said the company’s 18A manufacturing technologies that make advanced chips are “progressing well,” and it “continues to see strong interest” for its next-generation production process, called 14A, which is expected to produce chips that are more powerful and efficient.

Intel shares fell 3.6% before paring losses after Reuters published this report.
Nvidia made no commitment to manufacture with Intel in September when investing $5 billion in the chipmaker. “Right now we are focused on collaborations,” Tan told reporters while announcing the deal with Nvidia’s Huang.

Sardaukar.nsn
2025-12-27, 19:55:32
@Complicated: Danke für das Video.

ChaosTM
2025-12-31, 19:03:38
+1


MiUHjLxm3V0

Die EUV Geschichte - sehr interessant.

JonSnow
2026-01-01, 13:26:38
Eine super interessante Zusammenfassung der EUV-ASML-Geschichte.
Top Video, danke für den Hinweis.

BlacKi
2026-01-01, 13:28:07
mir war nicht bewusst, das EUV praktisch das rad neu erfindet.

Tobalt
2026-01-01, 17:43:12
+1


https://youtu.be/MiUHjLxm3V0

Die EUV Geschichte - sehr interessant.

Ich glaube es gibt auch von Branch Edu auf Youtube ein ähnliches Video vom Aufbau mit vielen Details zu den Spiegeln und Scannern, wen es interessiert.

davidzo
2026-01-03, 11:52:49
+1


https://youtu.be/MiUHjLxm3V0

Die EUV Geschichte - sehr interessant.

Ich finde es ein bisschen oberflächlich bzw. fachlich auch nicht ganz sauber.

Im intro zeigt er einen einfachen QFN-48 Chip und spricht von Wolkenkratzern mit hunderten Layern im Chip. Später stellt fest dass es nur einen Transistor Layer gibt und der Chip Stack irgendwo von 10 bis 100 Layer hat. Der übliche Metal Stack selbst von Highend Chips liegt aber eher bei 20-35Layern, also weit weit weg von den Tausenden die er angekündigt hat und der einfache QFN Chip dort hat vermutlich gerademal 10 Layer.

Auch fehlt mir dass ASML sich an Trumpf gewandt hat als man mit dem Skalieren der Laser initialquelle nicht weiter kam. Zeiss hat man erwähnt, Trumpf aber nicht. Die stellen welche der größten Schneidlaser der Welt für Metall her die haben ihnen die Leistung des Initiallasers um ein e Größenordnung nach oben geschraubt.

Das ganze wirkt mir auch zu sehr wie ein Werbevideo für ASML High NA Scanner.
Im Gegensatz zum Fazit des Videos hat sich die Industrie erstmal auf low-NA eingeschossen und es wurde noch kein einziger Serienprozess mit High-NA gelauncht und auch bei den 2027 kommenden ist die Verwendung wackelig.

Die verschweigen außerdem den große Nachteil von High-NA, weshalb die Industrie auch so zögerlich ist: Das Reticle halbiert sich. Das ist kontraproduktiv für AI Chips die massive Intrachip Bandbreite benötigen und sich nur mit sehr hohem Aufwand und Overhead auf Chiplets aufteilen lassen. Was nützt dir wenn du genauer printen kannst, einen höheren Wafer-Durchsatz und ggf. besseren yield hast aber dafür TSV Area und Energy Overhead hast und beim packaging wieder deutlich mehr ausgibst? Momentan lohnt sich der Tradeoff noch nicht.

Alles in Allem war nicht viel neues in dem Video. Bis auf die Zahlen zum Prahlen was die Positioniergenauigkeit, die Anzahl Droplets, Leistung der Lichtquelle und die Präzision der Spiegel angeht ist da nicht viel handfestes dabei.

Badesalz
2026-01-03, 11:57:00
Das ganze wirkt mir auch zu sehr wie ein Werbevideo für ASML High NA.Was es auch ist.

Lurtz
2026-01-03, 12:40:53
Anders würde man wohl leider keinen Zugang dazu bekommen. Aber die Kritik gabs bei Veritasium zuletzt häufiger, dass man für Exklusivzugänge die Fakten etwas zurecht biegt...

ChaosTM
2026-01-03, 14:43:55
Ich finde es ein bisschen oberflächlich bzw. fachlich auch nicht ganz sauber.

Im intro zeigt er einen einfachen QFN-48 Chip und spricht von Wolkenkratzern mit hunderten Layern im Chip. Später stellt fest dass es nur einen Transistor Layer gibt und der Chip Stack irgendwo von 10 bis 100 Layer hat. Der übliche Metal Stack selbst von Highend Chips liegt aber eher bei 20-35Layern, also weit weit weg von den Tausenden die er angekündigt hat und der einfache QFN Chip dort hat vermutlich gerademal 10 Layer.

Auch fehlt mir dass ASML sich an Trumpf gewandt hat als man mit dem Skalieren der Laser initialquelle nicht weiter kam. Zeiss hat man erwähnt, Trumpf aber nicht. Die stellen welche der größten Schneidlaser der Welt für Metall her die haben ihnen die Leistung des Initiallasers um ein e Größenordnung nach oben geschraubt.

Das ganze wirkt mir auch zu sehr wie ein Werbevideo für ASML High NA Scanner.
Im Gegensatz zum Fazit des Videos hat sich die Industrie erstmal auf low-NA eingeschossen und es wurde noch kein einziger Serienprozess mit High-NA gelauncht und auch bei den 2027 kommenden ist die Verwendung wackelig.

Die verschweigen außerdem den große Nachteil von High-NA, weshalb die Industrie auch so zögerlich ist: Das Reticle halbiert sich. Das ist kontraproduktiv für AI Chips die massive Intrachip Bandbreite benötigen und sich nur mit sehr hohem Aufwand und Overhead auf Chiplets aufteilen lassen. Was nützt dir wenn du genauer printen kannst, einen höheren Wafer-Durchsatz und ggf. besseren yield hast aber dafür TSV Area und Energy Overhead hast und beim packaging wieder deutlich mehr ausgibst? Momentan lohnt sich der Tradeoff noch nicht.

Alles in Allem war nicht viel neues in dem Video. Bis auf die Zahlen zum Prahlen was die Positioniergenauigkeit, die Anzahl Droplets, Leistung der Lichtquelle und die Präzision der Spiegel angeht ist da nicht viel handfestes dabei.


Es sind nicht alle so gut informiert wie du. Wir Normalsterbliche konnten da durchaus was lernen.
Und ich bin kein Chiptentwickler und kann also den Wahrheitsgehalt nicht wirklich beurteilen. Und was soll der Dummbeutel Trump persönlich zur Chipentwicklung beigetragen haben? Das macht jetzt aber wirklich keinen Sinn. (Achtung Ironie!)


Zeiss hätte man prominenter präsentieren sollen. Ohne die wäre gar nichts gegangen.
Veritasium`s Sachen sind normalerweise sehr gut recherchiert, aber das Video ist/war seit einem Jahr in Produktion. Da kann schon mal was aktuelleres unter den Tisch fallen.

Badesalz
2026-01-03, 15:06:20
Es sind nicht alle so gut informiert wie du. Wir Normalsterbliche konnten da durchaus was lernen.Keine Vorsätze für 2026? Er setzt sich mit dem Video auseinander. Nicht mit dir :|
Zeiss hätte man prominenter präsentieren sollen. Ohne die wäre gar nichts gegangen.Das ist korrekt.

y33H@
2026-01-04, 10:14:00
20 bis 35 Metal Layer finde ich hoch gegriffen, welche Chips sollen das sein? paar Beispiele? aktuelle Ryzen wie Strix Point oder Core Ultra wie Arrow Lake haben knapp unter 20ML.

dildo4u
2026-01-04, 10:39:35
Arbeiten die nicht an Chips die noch nicht angekündigt sind vermutlich was mit HBM4.

davidzo
2026-01-04, 12:14:12
20 bis 35 Metal Layer finde ich hoch gegriffen, welche Chips sollen das sein? paar Beispiele? aktuelle Ryzen wie Strix Point oder Core Ultra wie Arrow Lake haben knapp unter 20ML.

Eben.
Das sind auch nur Schätzungen von mir weil kaum noch etwas zum Metal stack der Chips veröffentlich wird. Ich vermute aber dass große AI Chips mehr Interconnect und Power und damit mehr Metal Layer brauchen als kleine CPUs. Das ist aber eine reine Schätzung, ich stochere da auch im Dunkeln.
Früher ist Intel damit noch offener umgegangen und hat klar gesagt dass die ersten 14nm CPUs einen 13 Metal layer Stack hatten. Keine Ahnung wieso solche Daten jetzt so schwer zu finden sind.

Tobalt
2026-01-05, 14:29:21
AI Chips oder andere große Dies, die deshalb groß sind, weil sie sehr stark auf parallele Einheiten setzen (FPGAs, GPUs), haben ja aber kleine Subeinheiten, die auch großteils lokal verdrahtet sind. Das sollte jetzt nicht zu einer Explosion der ML Anzahl führen. Zumal die Chips ja eben auch groß sind, und man damit mehr Platz in jeder Lage hat, die Leistung in das Silizium rein zu ballern.

Extrem breite Interfaces wie HBM schon eher.

Oder natürlich: die beidseitigen Metallayer, die ja irgendwann kommen sollen. Sehr viel muss man einfach auf beiden Seiten reproduzieren.

ChaosTM
2026-01-15, 14:52:18
X-Ray Lithographie

R539FPNAwes

Pipedream, der an die Donut Wunderbatterie erinnert, oder bald Realität?
Ihre Überschriften sind immer reißerisch, aber ich hör/schau ihr gerne zu - easy on the eyes ;)

Wörns
2026-01-15, 17:07:59
Ist ja weitgehend frei von Informationen, wie die Strukturen auf den Chip kommen sollen, dafür aber mit Werbung für Küchenmaschinen...

Vermutlich geht es im wesentlichen um den Austausch der Röntgenquelle. Anstelle verdampfender Zinnkügelchen wird ein Teilchenbeschleuniger für Elektronen verwendet, der mehrere Stationen versorgen kann. An den Stationen werden die Elektronen abgebremst und erzeugen Bremsstrahlung, die man besser kontrollieren kann, als die EUV Strahlen aus der Zinnexplosion. Man kann die Wellenlänge, den zeitlichen Abstand zwischen Pulsen und deren Intensität jeweils moderieren und auf den jeweiligen Prozess und damit auch auf die Maske abstimmen. Bzw. die Masken und Strahlführung auf unterschiedliche Wellenlängen, die dann ja nicht exakt 13,5nm sein müssen. (Hab ich jetzt nicht dem Video entnommen sondern mir aus anderen Fingern gesogen...)
Wie im Video den Chip direkt zu beschreiben, halte ich für Blödsinn, bzw. ist nicht der wirkliche Scope des Ansatzes.

Sofern man das hinbekommt, könnte das der nächste sinnvolle Schritt sein. Allerdings würde ich mal mit einem Prototypen anfangen und nicht gleich mit der ganzen Fabrik.
MfG

ChaosTM
2026-01-15, 17:19:26
War auch mein erster Gedanke.

Donot hat auch all die Lösungen auf einmal.
Zumindest versprechen die zumindest ein Motorrad in ein paar Monaten.

Es gibt immer die minimale Chance, dass jemand wissenschaftlich zufällig auf GOLD stößt,
aber..

Tobalt
2026-01-15, 18:45:34
Synchrotons waren ja die ursprünglich angedachte Quelle für EUV. Wurde aber dann als zu unökonomisch eingestuft zu gunsten der Zinnkugeln.

Wenn man mehrere Belichter drumherum baut, sieht das vielleicht nochmal anders aus, und man wäre in der Wellenlänge variabel. Ich will nicht ausschließen dass man das nochmal aufnimmt.

Wenn dann wird man aber die Wellenlänge nur maßvoll anpassen, zB zu einem für Spiegel optimaleren Wert ebenfalls im EUV Spektrum.

Härtere Röntgenstrahlung sehe ich nicht kommen.

PS: Das Video habe ich nicht geklickt oder gesehen.

ChaosTM
2026-01-15, 19:38:14
Was man angedacht hat war in der Vergangenheit.

Wir leben in einer Zeit, in der sich das "Wissen" der Menschheit nicht in Jahrzehnten sondern in Monaten verdoppelt.

Alles ist möglich..

Badesalz
2026-01-15, 19:46:30
Wir leben in einer Zeit, in der sich das "Wissen" der Menschheit nicht in Jahrzehnten sondern in Monaten verdoppelt.Wodurch das denn? Statistisch gesehen, vielleicht. Es kommt aber nichts wirklich neues dazu. Die Blöderen ziehen ggf. schneller hinter den Klügeren nach. Dann kann man das auch so sagen. Ob das einen Ertrag ergibt...

Eher nicht. Den staken umgekehrten Flynn-Effekt kann man leider nicht mehr ignorieren.

ChaosTM
2026-01-15, 20:03:01
Wodurch das denn? Statistisch gesehen, vielleicht. Es kommt aber nichts wirklich neues dazu. Die Blöderen ziehen ggf. schneller hinter den Klügeren nach. Dann kann man das auch so sagen. Ob das einen Ertrag ergibt...

Eher nicht. Den staken umgekehrten Flynn-Effekt kann man leider nicht mehr ignorieren.


Wir haben min den letzten Jahrhunderten soviel an kognitiver (Speicher
Fähigkeiten) verloren, dank dieser BÜCHER.


Da setzt sich natürlich immer weiter fort. Wir können externe Quellen aufrufen..
Das hat nichts mit Intelligenz zu tun, sonder mit der Speicherfähigkeit

Nightspider
2026-01-15, 20:33:53
Ihre Überschriften sind immer reißerisch, aber ich hör/schau ihr gerne zu - easy on the eyes ;)

Hört doch mal auf die Trulla zu verlinken. Die verdient ihr Geld mit Männern, die sich leicht bequatschen lassen.

ChaosTM
2026-01-15, 20:55:25
Hört doch mal auf die Trulla zu verlinken. Die verdient ihr Geld mit Männern, die sich leicht bequatschen lassen.


ok; ich lass mich wirklich gerne von schönen Trullas bequatschen. Horny Me!
aber ist alles was sie gesagt hat wirklich so falsch?

ok, sie ist eine Frau..kann man als männlicher Mann in der Chipindustrie nicht wirklich ernst nehmen

aufkrawall
2026-01-15, 20:59:34
Bei der Stimme und Akzent? :freak:
Aber dafür btw. DEKADEN in der Halbleiterindustrie.

ChaosTM
2026-01-15, 21:04:49
Bei der Stimme und Akzent? :freak:
Aber dafür btw. DEKADEN in der Halbleiterindustrie.

die Stimme und der Akzent haben mich ursprünglich auch verwirrt , gebe ich zu :)


Was mich interessiert ist, ob wir jetzt in der derzeitig Technologie gefangen sind, oder ob es weiter gehen kann

Skysnake
2026-01-16, 08:41:21
Also wie gesagt, Elektronenstrahllithographie wird für die Erstellung der Masken schon lange genutzt. Das Problem hier ist nur, das grobe Strukturen, also Flächen sehr sehr lange brauchen. Am Ende kommt es nicht auf sie Komplexität an sondern ist proportional zur zu belichtenden Fläche.

Das läuft dann am Ende auf ein Durchsatz und damit Kostenproblem raus. An sich willst du das aber da du keine Rüstzeiten hast und Chips auch beliebig anpassen bzw mischen könntest auf einem Wafer. Auch 10 Chips im modernsten Prozess wären kein Thema von den Kosten her. Du brauchst ja dann keine Masken mehr.

Man arbeitet da dran was man multiple Beams hat und mit dem Focus spielt. Ich könnte mir aber auch eine Mischung aus normalem EUV bz2 DUV für grobe Strukturen und zusätzlich noch elektronenstrahl für die Feinsteuktur. Die Positionierung der Wafer hat man. Im Rahmen von EUV ja wahrscheinlich hinreichend perfektioniert.

Zentrale Elektronenquelle für Röntgenstrahlen kann ich mir aber kaum wirtschaftlich sinnvoll vorstellen. Man hat ja nicht mehrere Testplätze die immer nur zeitweise genutzt werden und man damit die Auslastungszeut der Quelle erhöhen kann. Nö. Nen Stepper läuft ja quasi durch.

Wenn kannst su vielleicht zwei bedienen aber mehr sehe ich da nicht als realistisch an. Wenn überhaupt. Ich denke ein Stepper wird die Quelle schon zu >50 der Zeit nutzen. Und das nicht gleichförmig. Bewegen des Wafers dauert nicht exakt gleich lang wie das Belichten.

Daher wie gesagt max 2 Stepper pro Quelle und das könnte man dann am Besten als Dualstepper machen. Aber ob sich dafür der Aufwand aus zusätzlicher Strahlführung und damit verbunden auch Energieverlust rechnet???

Ich habe erhebliche Zweifel.

Badesalz
2026-01-16, 09:13:58
Wenn du "abgeschnitten" bist, rechnest du die Gulden anders. Denn wenn du es so nicht machst, hast du ggf. garnichts. Konkurrenzfähigkeit auf dem Weltmarkt wird uninteressant.

Könnte also sein, daß die sich da doch was draus basteln und ohne sich einem globalen Wettbewerb stellen zu müssen kann sich das eben anders RECHNEN. WENN es technisch grundsätzlich gehen sollte.

Wörns
2026-01-16, 13:04:06
Zentrale Elektronenquelle für Röntgenstrahlen kann ich mir aber kaum wirtschaftlich sinnvoll vorstellen. Man hat ja nicht mehrere Testplätze die immer nur zeitweise genutzt werden und man damit die Auslastungszeut der Quelle erhöhen kann. Nö. Nen Stepper läuft ja quasi durch.

Wie ich es im Video verstanden habe, haben die aber durchaus vor, nur einen Beschleuniger für viele Testplätze zu nutzen, und zwar mehr als nur zwei. Den Elektronenstrahl an viele verschiedene Stationen zu führen, ist kein Ding, das wird bei quasi allen Teilchenbeschleunigern mit verschiedenen Testplätzen auch schon gemacht und ist physikalisch trivial.

Ich denke, für ASML war es keine Option, für jede EUV Station einen Beschleuniger mit zu verkaufen, der dann vielfach größer ist als die Station selbst. Mit dem obigen Ansatz muss der Beschleuniger noch nicht einmal im Reinraum sein. Die Stationen übernehmen dann "lediglich" die Steuerung (Zeitpunkt, Energie, Intensität,...) für ihre Elektronenpakete und die Konvertierung in Bremsstrahlung.
MfG

Hochzeit2
2026-01-16, 13:07:34
X-Ray Lithographie

Gibt es schon seid der Jahrtausendwende.
Und ist seit dem kostenmäßig immer beschissender geworden.

Skysnake
2026-01-16, 13:43:14
Wie ich es im Video verstanden habe, haben die aber durchaus vor, nur einen Beschleuniger für viele Testplätze zu nutzen, und zwar mehr als nur zwei. Den Elektronenstrahl an viele verschiedene Stationen zu führen, ist kein Ding, das wird bei quasi allen Teilchenbeschleunigern mit verschiedenen Testplätzen auch schon gemacht und ist physikalisch trivial.

Ich denke, für ASML war es keine Option, für jede EUV Station einen Beschleuniger mit zu verkaufen, der dann vielfach größer ist als die Station selbst. Mit dem obigen Ansatz muss der Beschleuniger noch nicht einmal im Reinraum sein. Die Stationen übernehmen dann "lediglich" die Steuerung (Zeitpunkt, Energie, Intensität,...) für ihre Elektronenpakete und die Konvertierung in Bremsstrahlung.
MfG

Na klar gibt es das bei klassischen Beschleunigern um die Strahlzeit optimal zu nutzen. Dad hatte ich ja auch schon gesagt.

Ein Strahlplatz ist aber etwas fundamental anderes als nen Stepper. Nen Strahlplatz wird für Tage/Wochen nicht benutzt weil Vorbereitungen erfolgen. Bei nem Stepper hast du Dauerbetrieb und versuchst die Nutzzeit so hoch wir nur irgend möglich zu drehen.

Wenn die den fundamentalen Unterschied nicht erkennst, dann kann ich auch nicht helfen.

Und jedwede Führung kostet dich Luministenz, erhöht die Komplexität und damit Kosten. Wie gesagt, hast du an sich schon Dauerbetrieb. Wenn deine Luminizenz nicht so hoch ist, das du Problemlos Strahlteilung machen kannst, dann gewinnst du rein gar nichts.

Elektronenstrahlquellen sind extrem alt und gut ausentwickelt. Das sollte an sich verdammt billig zu machen sein und auch gut nach unten skalieren.

Wie gesagt sehe ich da keinen Sinn drin. Zumal du bei Bremsstrahlung eh ein kontinuierliches Energieband. Du bekommst also eh nicht nur ein sehr schmales Energieband raus.

Von daher glaub ich eh nur dran wenn ich es auch wirklich sehe.

Wörns
2026-01-16, 16:36:50
Den fundamentalen Unterschied erkenne ich in der Tat nicht.
Eine Elektronenquelle soll im 24/7 Betrieb viele Stepper bedienen, die ihrerseits im 24/7 Betrieb laufen.
Dass an Teilchenbeschleunigern die Strahlplätze auch mit weniger auskommen, weil die jeweiligen Experimente aufgebaut, einkalibriert und später wieder abgebaut werden, spricht nicht gegen das obige Vorhaben.

Das Bremsstrahlungsspektrum ist zwar kontinuierlich, aber der Bereich um 13,5 nm macht auch nur einen Anteil im kleinen Prozentbereich aus, der aus dem Zinnplasma herauskommt. Da sehe ich nicht den großen Unterschied.
MfG

Badesalz
2026-01-16, 19:45:36
Oder einfach mit Atomen wie mit Klemmbausteinen ;)

https://www.youtube.com/watch?v=T1Hkqn0CqMA

Skysnake
2026-01-16, 19:48:43
Die Ausbeute wird schon massiv gesteigert. Darum geht es aber nicht.

Bei normalem EUV hast du eine Quelle für eine Maschine die versucht möglichst nahe an 100% Strahlzeit zu kommen.

Bei nem Beschleuniger mit Strahlplätzen weißt du das du mit einem Platz nur einen sehr kleinen Anteil der Strahlzeit nutzen kannst. Daher mehrere Plätze um die Nutzung zu optimieren.


So und jetzt haben wir ne Quelle, die von einem Stepper an sich mehr oder weniger komplett ausgelastet werden kann und du willst aber mehrere pro Quelle haben? Macht total Sinn. Dann läuft jeder Stepper nur mit nem Bruchteil der möglichen Auslastung.

Nochmals. Man sollte nicht davon ausgehen, dass die Quelle mehr als einen Stepper kontinuierlich versorgen kann zu angemessenem Aufwand. Für mich ist das einfach ein hoax, bis sie gezeigt haben das sich das wirtschaftlich umsetzen lässt. Das fällt für mich in die Kategorie Wunderakku...

Wörns
2026-01-17, 01:40:05
So und jetzt haben wir ne Quelle, die von einem Stepper an sich mehr oder weniger komplett ausgelastet werden kann...

Nope. Das hast du frei erfunden.
Über die Quelle ist noch nichts bekannt, die muss erst noch erschaffen werden und wird in der Dimension ausgelegt, die eben für viele gleichzeitig betriebene Stepper notwendig ist.
MfG

Orko
2026-01-17, 11:58:02
ASML Roadmaps zeigen, dass überwiegend an der Verbesserung der Strahlenquelle gearbeitet werden wird, um die wph zu erhöhen.
Das zeigt zum einen, dass hier noch Luft nach oben ist.
Und zum anderen, dass die Skalierung der aktuellen Strahlenquelle offensichtlich nicht ganz trivial ist.

Da ist es IMO schon legitim, den Blick auf Alternativen zu richten.
Bremsstrahlung von Elektronen lässt sich zumindest technisch beliebig skalieren.
Die Frage ist da eher die Wirtschaftlichkeit und der Platzbedarf.

Ich frage mich, wo das Limit liegt.
Angenommen, mit gestaffelten Elektronen-Beschleuniger-Ringen im Dauerbetrieb, Elektronenweichen, und einem FEL (Freie Elektronen Laser) pro EUV Maschine
kann eine beliebig hohe Menge an kontunierlicher oder nanogepulster EUV-Strahlung pro EUV Maschine erzeugt werden.

Der Großteil davon wird per Wellenlängen-Filter absorbiert, um die Arbeitswellenlänge ausreichend schmal zu bekommen.
Dies könnte extern geschehen, also vor der EUV-Spiegel-Vakuumkammer.

Der Nutzteil wiederum wird letztendlich von Spiegeln, der Maske, dem Fotolack und dem Wafer absorbiert.
Je höher die Strahlenleistung ist, desto mehr Wärme pro Zeit wird erzeugt.
Also entsteht in dem Materialien (Spiegel, Maske, Wafer) ein erhöhter Temperaturgradient zwischen Absorptionszone(n) und Kühlung bzw Wärmesenke.
Dabei angenommen, diese Materialien sind bereits auf einen Zieltemperaturbereich UND -Gradient hin ausgelegt worden.
(DBR Laser werden ja auch so designed, dass die Bragg-Schichtdicken der Spiegel im Temperaturarbeitspunkt zur Laserwellenlänge passen)

Nachdem die Masken Strukturen aufweisen, ist dieser Temperaturgradient nicht lokal stationär, sondern wird Schwankungen aufweisen.
Es entstehen also Variationen in der materialbedingten Wärmeausdehnung, also Schichtdickenänderungen in den Bragg-Spiegeln und Microverzug in Maske und Wafer.

Bis zu welcher Strahlleistung ist dies noch handhabbar, und wo liegt das Limit?
Spätestens bei Temperaturen in denen Diffusionsprozesse die Spiegelschichten zerstören, der Fotolack chemisch degradiert oder der Wafer geschädigt wird ist Schluss.

Der Einsatz von Bremsstrahlung von Elektronen lässt sich also nicht beliebig skalieren, um die wph zu erhöhen.
Damit bleibt die Frage, welche Verbesserung realisierbar ist, und inwieweit das Konzept damit wirtschaftlich tragbar sein könnte.

---

Zur Diskussion oben:

Die Anzahl an Elektronen mit der Zielgeschwindigkeit im letzten / größtem Speicherring stellt praktisch die Energiereserve dar, welche bestimmt wieviele EUV-Anlagen mit welcher Strahlleistung bedient werden können.
Das ist skalierbar, z.B. indem dem letzten Beschleunigerring ein dedizierter Speicherring nachgeschaltet wird, in welchem viele Elektronenstrahlenpakete gehalten werden, und welcher zwischen Elektroneneinspeisung und Elektronenauskopplung buffert.

Wörns
2026-01-17, 14:39:10
Ich glaube nicht, dass man einen Elektronenspeicherring überhaupt benötigt. Was hier zur Anwendung kommen soll, sind doch Strahlen in der Größenordnung von 100 eV. Die 13,5 nm aus dem Zinnplasma entsprechen ca. 92 eV. Die Speicherringe, die für physikalische Forschungen gebaut werden, stellen Elektronenenergien im Bereich MeV-GeV zur Verfügung. Entsprechend hoch ist die Synchrotronstrahlung. Das ginge hier völlig am Bedarf vorbei und wäre sogar schädlich.
MfG

Complicated
2026-01-17, 15:04:00
X-Ray Lithographie

https://youtu.be/R539FPNAwes

Pipedream, der an die Donut Wunderbatterie erinnert, oder bald Realität?
Ihre Überschriften sind immer reißerisch, aber ich hör/schau ihr gerne zu - easy on the eyes ;)
Ein Kommentar hat das Video auf den Punkt gebracht:
8:53 (https://www.youtube.com/watch?v=R539FPNAwes&t=533s) You made a mistake here. X-ray wavelength is not 1000 times smaller then EUV. EUV is borderline close to X-ray and depending on definition, it is few time to 10 times larger, not 1000 times. 1 angstrom is a tenth of nm. Update: As @Flameboar mentions, at extreme ends (with hard x-rays in picometer range, it could be considered 1000 times smaller then EUV). Even if we achieve such small resolution, the silicon lattice is few angstroms, you cannot have semiconductors with features less then an atom width. So, the limit of features is constrained by that and there is no way around that.Die Behauptung kleinere Strukturen als Atomgröße herstellen zu können ist halt Unfug.

Orko
2026-01-17, 15:08:12
Was hier zur Anwendung kommen soll, sind doch Strahlen in der Größenordnung von 100 eV. Die 13,5 nm aus dem Zinnplasma entsprechen ca. 92 eV.

Nur wenn das Elektron auf einen Schlag komplett abgebremst wird und so die gesamte Energie in ein Photon emittiert wird. Also Schuss der Elektronen auf ein Material mit möglichst grossen Atomkernen.
Dann hat die emittierte Strahlung aber eine niedrige Brillianz, also einen sehr grossen Strahlwinkel und Wellenlängenbereich, und kann nur schwer verwertet werden.

Dafür reicht eine Röntgenröhre, und es reicht eine individuelle Quelle pro EUV-Maschine. Keine Notwendigkeit (und ggf sogar schwierig) das im grossen Maßstab zu skalieren.

Ich hätte eher an Freie-Elektronen-Laser gedacht, um im grossem Maßstab effektiv zu erzeugen und konvertieren. (https://de.wikipedia.org/wiki/Freie-Elektronen-Laser)
Dadurch dass die Elektronen auf relativistische Geschwindigkeit beschleunigt werden, kann ein gut gebündelter Photonenstrahl erzeugt werden. Ein Elektron erzeugt dabei viele Photonen. Die etwas abgebremsten Elektronen sind nicht verloren, sondern können eingesammelt und erneut beschleunigt werden.

Der letzte Absatz "militärische Verwendung" scheint anzudeuten, dass dies in einer handhabbaren Maschinen-Größendimension möglich ist (z.B. im Vergleich zu Kalibern wie CERN)

Orko
2026-01-17, 16:19:55
Ich würde mir das so vorstellen:

Unterirdisch (wegen Betriebssicherheit) unter dem Reinraumgebäude befinden sich konzentrisch (über oder nebeneinander) ein Beschleunigerring und ein Speicherring.
Tangential dazu viele FEL, welche die EUV Strahlung mit der gewünschten Wellenlänge und gut gebündelt in Tangentialrichtung erzeugen, jeweils in der für eine EUV-Maschine (NA 0.33 oder 0.55 oder in Zukunft vielleicht sogar 0.7x) geeigneten Leistungsklasse.

Ein Bragg Spiegel lenkt diese Strahlung senkrecht nach oben, so dass diese durch den Boden in den Reinraum kommt.
Im Reinraum entsteht so im einfachsten Fall ein Ring an EUV Stahlungsquellen, und auf je einer Quelle wird eine EUV-Maschine plaziert.
Vakuum wird in den Ringen ohnehin erzeugt, und kann die EUV Anlagen mit "beliefern".
Die EUV Maschinen kommen damit ohne individuelle interne Strahlungsquelle und Vakuumpumpe aus -> Skalierungsvorteil.

Die Größe der Ringe bestimmt wie effektiv diese arbeiten und wieviele EUV Anlagen versorgt werden können.
Das Konzept ist gut nach oben skalierbar.

Elektronen werden im Beschleunigerring auf Zielgeschwindigkeit gebracht, in den Speicherring transferiert, dort ausgekoppelt, durchlaufen einen FEL, werden dabei etwas abgebremst, und werden anschliessend wieder in den Beschleunigerring eingekoppelt.
Natürlich ist noch ein weiterer Vorbeschleuniger nötig, um Elektronenverluste auszugleichen.

Wörns
2026-01-17, 19:22:23
Das Problem bei Zinnplasma ist, dass die Röntgenstrahlung erstmal in alle Richtungen (isotrop) unterwegs ist und nur der Teil verwendet werden kann, der zufällig in Richtung Maske läuft.

Der FEL ist vermutlich der richtige Ansatz. Blaupause könnte der FLASH (https://de.wikipedia.org/wiki/FLASH_(Teilchenbeschleuniger)) in Hamburg sein, wo die Röntgenstrahlung von ca. 4-30 nm durchstimmbar ist und zielgerichtet raus kommt. Der hat zwar einen Linearbeschleuniger. Aber es geht natürlich auch ein Speicherring, der von einem Linearbeschleuniger gefüttert wird.
Die FELs wird man für ihre Aufgabe optimieren können. FLASH ist halt ein Forschungswerkzeug, wo man je nach Aufgabenstellung ganz verschiedene Wellenlängen haben will. Die Flexibilität wird ja hier gar nicht gebraucht.
MfG

ChaosTM
2026-01-17, 19:34:02
Ich wollte eigentlich nur wissen, ob Ihr bessere Lösungen gesehen habt, die uns in der traditionellen Chipfertigung weiter bringen könnten.

Da ist scheinbar nichts.. (ist Zinn die einzige Möglichkeit?)

Bleiben nur die (AI) Software Lösungen, die man auch nicht ewig fortsetzten kann..
DLSS 7, die 120p auf 16k hochrechnen kann mit 128x MFG .. das stößt auch bald an seine Grenzen..

Skysnake
2026-01-17, 20:55:38
Speicherung für Elektronen sind riesige Dinger oder du hast viel viel viel zu viel Verluste.

Da kannst auch einfach nen Linearbeschleiniger bauen und gut ist.

Wörns
2026-01-18, 06:33:18
Das Problem bei Zinnplasma ist, dass die Röntgenstrahlung erstmal in alle Richtungen (isotrop) unterwegs ist und nur der Teil verwendet werden kann, der zufällig in Richtung Maske läuft.

Das schöne am FEL ist gleichzeitig ein Problem: Auf die Maske und den zu fertigenden Chip soll die Strahlung ja flächig treffen. Kohärentes Laserlicht würde da aber nur einen Punkt erzeugen, egal wie die Spiegelgeometrie aussieht. Insofern fällt eine direkte Bestrahlung mit dem FEL aus, und wir brauchen doch wieder etwas, das wie das Zinnplasma von einem Punkt ausgehend strahlt.

Man könnte den FEL allenfalls dazu benutzen, im Zinntröpfchen mit einer abgestimmten Wellenlänge gezielt die Vakanzen zu erzeugen, bei deren Auffüllung die 13,5 nm Strahlung freigesetzt wird. Ich glaube aber nicht, dass das so viel besser wird als das inzwischen herkömmliche Verfahren.

Was ich oben mit Bremsstrahlung meinte, war nicht das Abbremsen in irgendeinem Material mit all seinen Begleiteffekten sondern lediglich das Umlenken in einem Magnetfeld. Genauso entsteht ja auch die Synchrotronstrahlung in einem Speicherring.
MfG

Orko
2026-01-18, 11:08:15
Das schöne am FEL ist gleichzeitig ein Problem: Auf die Maske und den zu fertigenden Chip soll die Strahlung ja flächig treffen.

Bedingt. Stand der Technik sind Stepper.

Kohärentes Laserlicht würde da aber nur einen Punkt erzeugen, egal wie die Spiegelgeometrie aussieht.

Nein.
Wenn dich das Thema interessiert lies dich zum Stichpunkt "Etendue" als Entropiemaß der Optik ein.
Strahlwinkel und Strahlquerschnitt lassen sich mit Optiken vergrößern.
Nur andersherum geht das nicht ohne Verlust.

DUV Anlagen arbeiten ja auch mit Laserlicht (KrF Laser 248nm bzw ArF Laser 193nm).

Was ich oben mit Bremsstrahlung meinte, war nicht das Abbremsen in irgendeinem Material mit all seinen Begleiteffekten sondern lediglich das Umlenken in einem Magnetfeld. Genauso entsteht ja auch die Synchrotronstrahlung in einem Speicherring.


Ich hatte mich nur auf deine Aussage "100eV reichen für 13.5nm" bezogen. Für eine Röntgenröhre ist dies richtig. Für Synchotronstrahlung nicht, da sich bewegende Elektronen in einem Magnetfeld nicht quasi-instantan abbremsen lassen / deren Bewegungsrichtung nicht abrupt geändert werden kann. Für 13.5nm Photonen sind Elektronen >> 100eV nötig, da (je nach Bahnradius im Magnetfeld) nur ein gewisser Bruchteil der Bewegungsenergie eines Elektrons als Synchotron-Photon abgestrahlt wird.

Ich wollte da eigentlich nur anmerken dass meiner Meinung nach für eine vernüftige Lösung die von dir genannten 100eV nicht ausreichen, sondern deutlich mehr benötigt wird.


BTW - Ich freue mich hier mal so richtig zu fachsimpeln. Also ein Dankeschön für die Diskussion.

Complicated
2026-01-18, 11:31:56
+1 sehr spannend mitzulesen.

Wörns
2026-01-18, 17:27:54
Ich denke, es ist klar, was ich mit "flächig" meine, egal wie die Gerätschaft heißt.

Etendue ist mir ein Begriff. Allerdings ist der Raumwinkel, in dem ein Laser abstrahlt, quasi Null. Deswegen kannst du mit einem Laserpointer auch einen weit entfernten Gegenstand anstrahlen, wo immer noch nur ein Punkt zu sehen ist. Kohärentes Laserlicht ist parallelesLicht, und das ist hier das zu lösende Problem. Laserlicht fächert sich erst nach dutzenden Kilometern aus anderen physikalischen Gründen auf, die hier nicht zum Tragen kommen und wo der Effekt auch sehr gering wäre. Das ist eher relevant für Starwars, also im militärischen Bereich, wenn Raumschiffe sich gegenseitig mit Lasers abballern.

Für DUV Licht aus Lasern finden sich auch in deren Wellenlängenbereich noch spiegelnde Materialien (z.B. Aluminium), mit denen du das anfangs parallele Laserlicht relativ einfach auffächern kannst. Das sind keine Bragg-Spiegel, wie man sie bei EUV verwenden muss. Etwas Analoges bräuchte man aber auch, sofern der FEL nicht genug Raumwinkel liefert.

Es kann aber sein, dass ein FEL einen grundsätzlich anderen Strahl liefert, der bereits eine Auffächerung aufweist. Schließlich funktioniert der nicht wie herkömmliche Laser mit Besetzungsinversion. Bei der Röntgenstrahlung des FEL handelt es sich ja um Bremsstrahlung, die in den Mangnetfeldern der Undulatoren erzeugt wird. Man spricht in dem Zusammenhang auch von einer "Strahlungskeule", was schon eine Auffächerung des Strahls nahelegt, anders als bei normalen Lasern.

Ebenso vielen Dank für die angenehme Unterhaltung!
MfG

Skysnake
2026-01-18, 18:25:40
Bei nem.Elektronenstral hast du ja allein ne starke Auffächerung aufgrund von Ladungsabstoß.

Aber auch Laserlicht hat einen deutlichen Öffnungswinkel. Da word ziemlich viel Aufwand betrieben wie man den Laserstrahl in ein anderes Medium einkoppelt. Du hast da ohne größeren Aufwand schon nach wenigen Metern die doppelte Größe. Also <10m sind da durchaus keine Seltenheit für ne Verdoppelung des Durchmessers also nur noch 1/4 der Intensität.

Orko
2026-01-18, 19:16:29
Es wird etwas OT, aber ich diskutiere gerne weiter.


Allerdings ist der Raumwinkel, in dem ein Laser abstrahlt, quasi Null.


Kommt auf den Laser an. Im Allgemeinen aber nicht.


Deswegen kannst du mit einem Laserpointer auch einen weit entfernten Gegenstand anstrahlen, wo immer noch nur ein Punkt zu sehen ist.


Handelsübliche Laserpointer verwenden eine Laserdiode, welche einen Strahl mit "hohem" Raumwinkel erzeugt. Dabei ist die Strahlenaustrittsfläche sehr klein. Erst die Kollimator-Linse wandelt den Laserstrahl in einen möglichst parallelen Strahl mit definiertem Durchmesser um.


Kohärentes Laserlicht ist paralleles Licht


Ich dachte immer, Koheränz bedeutet dass Strahlung phasenangepasst / phasenausgerichtet ist,
so dass sich die Wellenamplituden und nicht nur die Wellenintensitäten (von Photonen-Wellenpaketen) addieren.

AFAIK ist Kohärenz der Strahlenquelle bei den aktuellen EUV Anlagen nicht nötig.

Wenn Braggspiegel senkrecht (ich hab hier vereinfacht, weil es sonst etwas komplex wird) mit koheräntem zum Spiegel phasenangepassten Licht bestrahlt werden können Reflektivitäten von > 99.9% erreicht werden. So funktionieren z.B. VCSEL (vertikal emittierende Laserdioden). Braggspiegel die mit nichtkoheräntem Licht bestrahlt werden erzielen dahingegen nur deutlich geringere Reflektivitäten, so wie in den aktuellen EUV-Anlagen. Braggspiegel die mit koheräntem aber nicht zum Spiegel phasenangepassten Licht bestrahlt werden erzeugen ggf Interferenzmuster.

FEL können mit entsprechendem geometrischem Finetuning koheränte Strahlung erzeugen. Deshalb der Name "Laser". Aber sie können geometrisch auch so angeordnet werden (verstimmt werden) dass keine koheränte Strahlung erzeugt wird. Einfach indem das Raumgitter der Elektronenwellen nichtharmonisch zur Strahlungs-Zielwellenlänge (13.5nm) angeordnet wird. OK, es wären dann semantisch genau genommen Freie-Elektronen-"Nicht-Laser".


Für DUV Licht aus Lasern finden sich auch in deren Wellenlängenbereich noch spiegelnde Materialien (z.B. Aluminium), mit denen du das anfangs parallele Laserlicht relativ einfach auffächern kannst. Das sind keine Bragg-Spiegel, wie man sie bei EUV verwenden muss. Etwas Analoges bräuchte man aber auch, sofern der FEL nicht genug Raumwinkel liefert.


Ein konvex gekrümmter Bragg-Spiegel.


Es kann aber sein, dass ein FEL einen grundsätzlich anderen Strahl liefert, der bereits eine Auffächerung aufweist.


Je höher die relativistische Geschwindigkeit der Elektronen, desto enger der Photonenstrahlkegel.
Ziel ist es ja meist, einen kleinen Strahlwinkel zu erzeugen.
Größere Strahlkegel bei FEL sind trivial, einfach mit etwas weniger schnellen relativistischen Elektronen arbeiten.

Orko
2026-01-19, 11:56:49
@ Wörns

Ich habe noch mal etwas über deinen Post nachgedacht.
Unsere Diskussion scheint sich darum zu drehen, was genau Laserlicht (bzw Laserstrahlung) eigentlich ist.

Mit der Frage habe ich auch damals während meines Studiums etwas zu kämpfen gehabt.
Laserlicht / Laserstrahlung tritt gerne in Form von eng gebündelten Strahlen hoher Intensität in Erscheinung,
während die Bedeutung von wichtigen Begriffen wie Laser, Etendue, Koheränz und Brillianz selten erklärt wird.

Nach meinem Verständnis:

A) Historisch betrachtet:
Laser (light amplification by stimulated emission of radiation) ist Licht bzw Strahlung welche (überwiegend) durch den physikalischen Prozess der stimulierten Emission erzeugt wird.

B) Moderne Definition:
Licht bzw Strahlung welche (unabhängig von ihrem Erzeugungsmechanismus) dieselben charakteristischen Eigenschaften aufweist wie Licht / Strahlung welche durch den physikalischen Prozess der stimulierten Emission erzeugt wird. Diese sind:

1) Es handelt sich um elektromagnetische Strahlung (aka Photonen).
Im Gegensatz z.B. zu Materiestrahlen

2) Monochromatismus
Die Strahlung weist eine geringe spektrale Breite auf.
Diese Eigenschaft kann in Form von Strahlungs-Wellenlänge (delta_lambda / lambda) oder reziprok in Form von Strahlungs-Frequenz(delta_f / f) formuliert werden.

3) Koheränz
Die Strahlung ist an ihrem Entstehungsort bzw ihrem Emissionsort koheränt, d.h. phasengleichgerichtet.

Die Eigenschaften 2+3 bestimmen die Koheränzlänge, also die Strahllänge in der die Koheränzeigenschaft (überwiegend) erhalten bleibt.
Laserlicht das sich über dessen Koheränzlänge hinweg ausbreitet verliert seine Koheränzeigenschaft und wird damit zu "normalem" monochromatischem Licht.
Auch Optiken können die Koheränzeigenschaft verringern oder zerstören.

4) (üblicherweise) hohe Brillianz
Strahlung welche (an seinem Entstehungsort) über eine hohe Brillianz verfügt, also (zusätzlich zur Eigenschaft Monochromatismus) eine relativ hohe Strahlstärke bei geringem Etendue aufweist.

Diese Eigenschaft KANN genutzt werden, um die Strahlung (sofern sie nicht bereits ohnehin in dieser Form vorliegt) in Form eines eng gebündelten Strahls hoher Intensität umzuformen.

Diese vier Eigenschaften führen dazu, dass bei Laserstrahlung die Welleneigenschaften sehr viel dominanter auftreten bzw auftreten können als bei "normaler Strahlung"


Eigenchaften die explizit NICHT charakteristisch (zwingend notwendig) für Laserstrahlung sind:

5) Polarisation:
Laserstrahlung kann, muss aber nicht, einen Polarisationsgrad aufweisen

6) die Pulsform
Laserstrahlung kann sowohl gepulst in beliebiger Pulskonfiguration als auch als kontinuierliche Strahlung auftreten.

7) die geometrische Strahlform an sich
sofern diese unabhängig von der Eigenschaft Etendue bzw Brillianz betrachtet wird

8) Moden
ob bzw inwieweit die Strahlung an ihrem Entstehungsort bzw Emissionsort geometrische Moden (gequantelte räumliche Verteilungen) aufweist

mboeller
2026-02-20, 09:52:05
die Chinesen scheinen was gefunden zu haben um den Verbrauch drastisch zu senken:

https://www.notebookcheck.com/Kleinster-ferroelektrischer-Transistor-Forschern-gelingt-Durchbruch-mit-1-Nanometer-Gate.1230048.0.html

https://www.science.org/doi/10.1126/sciadv.aea5020

Ferroelektrik, die mit 0,6Volt auskommt. Und die Speicherzellen schalten mit 1,6ns

davidzo
2026-02-20, 10:08:14
Unsere Diskussion scheint sich darum zu drehen, was genau Laserlicht (bzw Laserstrahlung) eigentlich ist.

Danke für diesen Post. Ich habe viel gelernt und das obwohl ich Laser schon seit Jahrzehnten praktisch benutze (schneidlaser, Linienlaser, Lichtschranken). Ich dachte bisher zum Beispiel dass die Polarisation ein zwingendes Merkmal ist. Jetzt ist es viel klarer mit deiner Erklärung!

Complicated
2026-02-20, 11:41:17
Ich habe noch mal etwas über deinen Post nachgedacht.
Unsere Diskussion scheint sich darum zu drehen, was genau Laserlicht (bzw Laserstrahlung) eigentlich ist.

Klasse Beitrag, on Point :)

Wenn Laserdiskussionen stattfinden fällt mir immer dieses Video ein, in dem einige dieser Prinzipien humorvoll dargestellt werden ;)
JqFSGkFPipM

Tobalt
2026-02-20, 16:04:34
Orko: Die geometrische Form ist für einen Belichter ganz entscheidend. Deshalb funktioniert das Zinn Target ja auch so gut, da es nahezu eine Punktquelle ist.

Einen Undulator + Aperturblende würde das wohl auch leisten. Wäre wohl auch recht effizient sofern mit Permanentmagneten betrieben.

Aber mein Bauchgefühl sagt irgendwie, dass der große Platzbedarf und Rattenschwanz des Elektronenspeicherringes da letzlich dovh dazu führt, dass man mit der Zinnplasma Quelle besser fährt.

Andererseits gibt es beim Undulator den Vorteil dass man bei den Spiegeln völlige Freiheit hat.. Einfach das Material das den esten Reflexionsgrad hat und dann die passende Wellenlänge auswählen.. Damit spart man auch wieder einiges an Verlusten

basix
2026-02-20, 18:10:54
Die Behauptung kleinere Strukturen als Atomgröße herstellen zu können ist halt Unfug.

Hier wäre Photonic Computing halt genial. Du musst nicht zwingend kleiner werden. Du kannst schlicht höhere "Taktraten" fahren oder auch mehere Wellenlängen nutzen (Parallelität).

Ach ja, einer der Typen der an Nvidias Ground-Referenced-Signaling beteiligt war (Basis-Tech für Nvlink von 2018) hat Mitte 2025 ein neues Paper veröffentlicht:
https://ieeexplore.ieee.org/document/11074882
This work presents a self-timed die-to-die link that serializes 4 data bits per pin for 2.5D or 3D interconnects using a standard adaptive digital clock and voltage supply. The link achieves 8 Gbps of per-pin bandwidth with a latency of 1 cycle, energy efficiency of 77fJ/b, and bandwidth density of 44Tbps/mm2 at 0.7 V. The link was implemented on a testchip as side-by-side transmitter and receiver macros connected with on-chip wires in a 3 nm process.
Umgerechnet 5.5 TByte/s pro mm2 bei ~3.4W als Chip-to-Chip Interconnect. Ich nehme an die Kennwerte beziehen sich auf die 3D-Version (gibt es auch in 2.5D). TSMCs SoIC verspricht 150fJ/bit und SoIC Gen 3 noch 1.17x besser als das. Ich kann ohne das Paper zu lesen aber nicht genau beurteilen ob man SoIC hier 1-zu-1 vergleichen kann.

Complicated
2026-02-20, 18:24:05
Hier wäre Photonic Computing halt genial. Du musst nicht zwingend kleiner werden. Du kannst schlicht höhere "Taktraten" fahren oder auch mehere Wellenlängen nutzen (Parallelität).

Passt gut in den Photonic Computing Chipfertigungs-Thread :)
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=622927

Tobalt
2026-02-21, 08:47:14
Hier wäre Photonic Computing halt genial. Du musst nicht zwingend kleiner werden. Du kannst schlicht höhere "Taktraten" fahren oder auch mehere Wellenlängen nutzen (Parallelität).

Die exclusive Nutzung eines Volumens durch ein einziges Bit bei CMOS ist eben ziemlich Brute Force und bedingt erst überhaupt diese Krasse Miniaturisierung.

Eigentlich jedes Beyond CMOS Konzept weicht das auf. Ist halt weniger intuitiv und nicht in 2 Sekunden zu erklären, wie die informationen übertragen/verarbeitet werden. Es werden nicht einfach nur massenhaft Lichtschalter herschaltet, sondern man benutzt Physik.

Ich denke dass das der Weg sein wird die nächsten Jahrzehnte.

Wenn man dann mit nichtmateriellen Informationsträgern wie Photonen oder kollektiven Quasiteilchen (da gibt es ja etliche Konzepte) arbeitet, verschwindet auch diese künstliche Grenze, dass irgendetwas "mindestens" ein Atom benötigt.

Skysnake
2026-02-21, 21:45:36
Dir ist schon klar, das jedwede photonische Schaltung gigantisch im Vergleich zu CMOS ist oder?

Und es gibt mehr als Digitallogik, CMOS ist am Ende vom Tag aber recht recht effizient für die gegebenen Effizienz. Gibt schon mehr als nur einen Grund warum quasi alles auf CMOS basiert.

Tobalt
2026-02-22, 07:23:42
Dir ist schon klar, das jedwede photonische Schaltung gigantisch im Vergleich zu CMOS ist oder?

Und es gibt mehr als Digitallogik, CMOS ist am Ende vom Tag aber recht recht effizient für die gegebenen Effizienz. Gibt schon mehr als nur einen Grund warum quasi alles auf CMOS basiert.

Ja, aber es gibt ja neben photonischen Schaltungen auch noch deutlich mehr.

Und ich sage auch nicht dass wir in 5 Jahre oder whatever Module haben, mit einer Integrationsdichte von über einem bit pro Atom.

Nur dass der klassische Ansatz, dass man jedes Stück Schaltungsvolumen in ALUs nur für genau ein Bit zu jeder Zeit verwendet, demnächst überwunden wird.

Und ich will CMOS auch nicht trash talken, aber hier geht es nunmal um künftige Prozesse und Spekulation, und da sage ich dass in Richtung shrinking nicht viel kommen wird, da EUV das Endgame ist. In Richtung Frequenz wird nicht so schnell viel kommen.

Complicated
2026-02-22, 07:50:00
Aktueller Stand Anfang dieses Jahres:
https://www.datacenter-insider.de/photonische-chips-sind-ein-formel-1-bolide-und-nahezu-startklar-a-02cd75188e31520091453147c5492c2a/
Auch die Aufholjagd mit aktuellen CMOS-Prozessoren müsse Qant erst noch bewerkstelligen, auch wenn die Technologie jährlich große Sprünge mache. „Wir haben gefühlt gestartet mit den Äquivalent [einer CPU] von 1970. Mit der Gen 1, die wir letztes Jahr vorgestellt haben, waren wir beim Niveau des Anfangs der 1990er Jahre. Und mit der Gen 2, die wir gerade auf der SC25 in St. Louis vorgestellt haben, waren wir in der Mitte der 2000er angekommen. Wir machen weiter und wissen auch schon, was wir nächstes Jahr bringen“.
Kommerzialisierung hat dieses Jahr allerdings mit 16-bit Genauigkeit auf PCIe-Addin Cards begonnen:
Im Rahmen einer Pilotproduktion könne Qant aktuell „50–60.000 Chips“ jährlich in Stuttgart herstellen, wobei gut die Hälfte für die weitere Chipentwicklung genutzt werde. Ein Teil der Chips werde aber bereits an Rechenzentren für den Produktionsbetrieb ausgeliefert: verpackt in 19-Zoll-Server mit drei Höheneinheiten mit bis zu vier photonischen Chips auf PCIe-Karten. Momentan kämen die meisten Kunden aus dem Forschungsbereich (so das Jülich Supercomputing Centre oder das Leibniz-Rechenzentrum), Qant sei aber gerade dabei, über neue Partnerschaften auch in den kommerziellen Bereich zu expandieren.

Badesalz
2026-02-22, 09:47:20
Und ich will CMOS auch nicht trash talken, aber hier geht es nunmal um künftige Prozesse und Spekulation, und da sage ich dass in Richtung shrinking nicht viel kommen wird, da EUV das Endgame ist. In Richtung Frequenz wird nicht so schnell viel kommen.Das wird noch ewig dauern. Der nächste Ansatz mit dem man nicht gleich nach den Sternen greifen muss werden (wie ich sie nenne) anamorphe Chips -> NextSilicon.

Wir werden uns sonst erstmal auf den sehr langen Weg machen Daten mit Licht zu bewegen, bevor uns anfängt einzufallen wie wir damit consumertauglich auch rechnen könnten.
Man sollte sich damit genauso abfinden wie eben damit, daß wir zu unserer Lebzeit nicht zu AlphaCentauri fliegen werden.

A16 und A14 ist bekanntlich Performance - teils auch Power - mikrig. Area eigentlich auch... Und dann wars das fast schon. Man sollte sich damit abfinden. Es wird eher mehr Konstruktiv passieren, nach rear-side Power. Packaging und Stacking also.

Ich sehe das aber auch nicht so schwarz. Wenn man sich bisschen ausmalt was dann erstmal noch alles möglich sein könnte, ist das dermassen viel Leistung, daß man weiterhin drin ersaufen kann. Viel größere Baustelle ist imho der sinnvolle Nutzen :usweet:

basix
2026-02-22, 11:24:05
Wie immer:
Die HW hätte mMn wohl bereits mehr als genug Leistung. Man muss aber auch gute SW haben und dort sehe ich sehr grosses Potential. Deutlich mehr als bei HW. Interessanterweise sehe ich hier Code-Optimierungen wie KI als enormes Potential. Ein 0815 Entwickler hat oftmals nicht genügend Kenntnisse oder schlicht zu wenig Zeit für umfangreiche Performance-Optimierungen. Und bei SW mit vielen Teilmodulen wird es dann eh ziemlich schwierig.

Der Nutzen, den du ansprichst, ist auch ein gutes Thema. Mehr Rechenleistung bringt nichts, wenn man nichts davon hat oder bemerkt. Sieht man ja an den Smartphones, wo die Nutzungszyklen immer länger werden (weil die Rechenleistung reicht und weil die Geräte immer teuerer werden).

Nochwas zu Performance:
Da viele Tools immer mehr zu "besseren Terminals" werden (MS Office ist da so ein Beispiel) und deswegen sehr stark an der Internetverbindung hängen, ist maximale Performance sowieso sehr schwierig zu erreichen ("fluffiges Gefühl" bei der Tool-Bedienung). Das ist kein HW Problem. Das ist ein SW-Design Problem. Office 2010 fühlt sich auf dem gleichen Rechner zigmal fluffiger an als Office 365, wenn man einfach nur ein paar A4-Seiten schreiben will. Das fängt nur schon beim Programmstart an, der deutlich schneller ist.

Platos
2026-02-22, 11:42:35
Das sehe ich kein bisschen so:

Bei GPUs: Da ist ja wohl logischerweise noch viel Luft nach oben. Was hald (und täglich grüsst das Murmeltier) hier nicht verstanden wird: Nur weil die RTX5090 schon ziemlich viel Rechenleistung bringt, heisst das noch lange nicht, dass eine bessere Generation nichts mehr bringt. Erinnerung: Die wenigsten kaufen sich das. Ja, man kann auch ohne 4k 240Hz spass am Gaming haben. Das konnte man aber auch schon vor 20 Jahren.
Kurz gesagt: Wir können nochmals drüber reden, ob man genug Perfomance hat, wenn eine Grafikkarte im Bereich 250-350Euro so schnell ist, wie eine RTX5090. Also es gibt noch genug Fortschrittmöglichkeiten.

CPUs: Hier zwar weniger für den normalo, also bei GPUs, aber auch hier gibts noch Gründe: Hier brauchts zwar auch wieder günstigere Produkte im Portfolio von AMD und Intel (das gilt eig. auch für die GPUs). Aber auch hier ist noch Luft nach oben: 8 Kerne gibts immer noch nicht (bzw. nicht mehr) günstig genug, um es Mainstream zu machen. Es geht auch hier nicht um die 32Kerner oder 52 Kerner von Intel bzw. die Top-End CPUs, sondern die unten. Wenns hier für 200-250 Euro 8Kerner gibt, kann man nochmals drüber reden.

SoC: Smartphones werden nicht immer teurer. Im Gegenteil: Es gibt immer günstigere Smartphones, die genug Perfomance haben und halbwegs brauchbare Kamera. Also nein, ich sehe das nicht. Ja, oben werden sie immer teurer. Das liegt daran, dass die Masse abwandert von diesen Smartphones und die Enthusiasten übrig bleiben, die eben mehr zahlen. Und es liegt natürlich auch daran, dass die Kameras immer besser werden (die Enthusiasten sind vermutlich der grössere Faktor).

Und dann gibts ja auch noch Handhelds, wo man m.M.n aufgrund Akkulaufzeit nie genug Fortschritt haben kann. Auch dann nicht, wenn man irgendwann Festkörperakkus mit doppelter Akkukapazität hätte. Aber ja, bei Smartphones ist sicherlich der Fortschritt etwas weniger notwendig, aber er war notwendig, damit man heute deutlich günstiger fährt, als noch vor 5 Jahren.

Fazit: Mir fallen genug Fälle ein, wo die Masse noch profitiert (keine Nischenszenarien). Effizienz habe ich zwar schon angedeutet, aber hier kann man auch nochmal viel machen.

basix
2026-02-22, 12:44:36
Ich wollte damit nicht sagen, dass bei der Rechenleistung nicht noch viel Luft nach oben ist. Und dass bei Mainstream GPUs nicht genug für 4K mit Pathtracing übrig ist, sollte auch klar sein. Das ist aber ein ganz anderes Thema. Man kann nicht davon ausgehen, dass die Masse plötzlich überall Highend-HW Performance bekommt. Das ist 2026 schlicht unrealistisch geworden. Zudem steigen über die Zeit auch die Anforderungen. Heute kann etwas mit 4K/240Hz laufen. In 3 Jahren sieht das bei neuen Spielen ganz anders aus. Der Grund ist, dass sich die Games auch an der Highend HW orientieren. Du hast damit also sich selbst verschiebende Torpfosten und das wird im Falle GPUs und Games immer so sein.

Beim Thema SoC Rechenleistung hast du die gleiche Meinung, du drückst sie nur anders aus (oder von einem leicht anderen Gesichtspunkt aus). Wenn die Rechenleistung reicht, brauche ich kein neues Smartphone. Wenn ich ausreichende Rechenleistung für wenig Geld bekomme, kann man wechseln wenn man noch nicht dort angelangt ist. Die meisten sind das aber bereits. Und oben rum wird es teurer, aber du wechselst dort nicht primär wegen mehr Rechenleistung. Sondern wie du sagst wegen besseren Kameras oder anderen Features. Aber solange sich den Smartphone gut anfühlt (flüssige Bedienung) und dich nicht was anderes limitiert (Speichermenge, Kamera) ist der Drang zu wechseln relativ gering.

Handhelds sind ein relativ spezielles Thema und mMn an das Thema GPU geknüpft. Du wirst dort nie "genug" Rechenleistung haben, da Games über die Zeit höhere Anforderungen stellen.

Meine Hauptaussage war zudem generell eine andere:
Wir haben heute generell sehr viel Rechenleistung verfügbar. Selbst in Handhelds und Smartphone SoCs sind das TFLOPS an GPU-Rechenleistung, 6-8 CPU Cores und vieles mehr. mMn wird das aber nicht optimal ausgenutzt, da die SW es schlicht nicht tut. Hier hätte man einen sehr grossen Hebel um die Nutzererfahrung deutlich zu verbessern, ohne dass man mehr Rechenleistung benötigen würde.

Badesalz
2026-02-22, 12:54:19
@Platos
Ja, ich betrachtete das erstmal primär aus der CPU-Sicht. Schon ok. Keiner Sprach von einem Ende der Architekturenentwicklung ;) Das wird sich alles bis A14 noch brauchbar steigern.
Aber "da gibt es auch Gründe" ist bisschen schlapp. Für die GPU dagegen wäre mir da noch bisschen was eingefallen.

Und da wird es immer dünner (CPU, daheim). Übrigens empfehle ich weiterhin in Threads zu rechnen. Mit Kernen - dei einen so, die anderen so - kann ich nichts anfangen. Aber was da angeht haben wir jetzt schon FAST genug Threads. Jetzt mal davon ab, daß nicht alles trivial unendlich parallelisierbar ist und man mit steigender Threadanzahl für einen einzigen fetten Job auch Packagepower immer weiter ausreizt und dafür wieder mit dem Takt dealen muss. Dazu kommt noch der Verwaltungsaufwand beim ggf. in-sync halten der Threads (was z.B. Cinebench nicht interessiert)

Mit Zen6 bekommt man jetzt im "Standard X3D" 24 Threads. Nur als bBeispiel, aber für wen das als Entwickler einer Consumersoft nicht üppig ist, der hat imho ein in-house Problem in der Entwicklung. Egal ob Game oder Anwendung.

So einiges davon aber war auf "ich wünsche mir eine weiter für mich diesbezüglich aufregende Welt" gerichtet. Das ist schön, muss aber nicht zwangsläufig einen Kontext zur Realität haben...

@basix
Jein. Die ersten Ideen (Vibe) sind pure Kommerz mit Auslagern was geht. Das ist Müll. Mittlerweile nicht nur theoretisch. Vielen Dank an u.a. MS für diese Erkenntnis.
Die Idee eines LRM dagegen dem man vorgibt:
- Das ist eine stark rechenintensive Routine in Rust (Quellcode reinschieb)
- Deine Aufgabe ist eine Leistungsoptimierung für x86.
- Es geht um eine Leistungsoptimierung mit der Abwägung es optimal für Intel x86 wie auch AMD x86 umzusetzen. Das ist eine Priorität.
- Optimiere für alle folgenden CPUs ab der ersten x86-64 (Vorschlag A)
- Optimiere für alle folgenden CPUs ab SandyBridge (Vorschlag B)
- Beide Vorschläge jeweils in Rust und in ASM unterbreiten (ASM als Vorschlag A2 und B2)
- Führe für jede Version Benchmarks durch und presentiere die Ergebnisse in Zahlen. Einheit Millisekunden. In einer tabellarischen Form.
- Erkläre bitte die Gründe für die gewählten Optimierungen (opt.)

könnte man mal versuchen :wink: Wenn es das gäbe.

Platos
2026-02-22, 13:20:07
Meine Hauptaussage war zudem generell eine andere:
Wir haben heute generell sehr viel Rechenleistung verfügbar. Selbst in Handhelds und Smartphone SoCs sind das TFLOPS an GPU-Rechenleistung, 6-8 CPU Cores und vieles mehr. mMn wird das aber nicht optimal ausgenutzt, da die SW es schlicht nicht tut. Hier hätte man einen sehr grossen Hebel um die Nutzererfahrung deutlich zu verbessern, ohne dass man mehr Rechenleistung benötigen würde.

Klar, Softwareoptimierung wäre toll, ist aber rein logisch betrachtet einfach unwirtschaftlicher. Wenn man jede Software händisch optimieren muss, kommt das am Ende teurer, als einfach einmalig bessere Hardware zu kaufen. Wenn das jeder machen würde, wäre Software auf einmal viel tuerer...
Mit KI geht da vlt. was, aber bis KI wirklich gut ist, gehts noch ein paar Jahre. Vlt. hilfts dann was, wenn/falls wir nach A14 nicht mehr so schnell weiter kommen.

Ich habe aber die Aussage von Badesalz aufgegriffen, wofür man denn noch mehr Hardware überhaupt noch braucht. Und da habe ich meine Antwort primär gesehen, auf diese Frage. Und ich sehe da auch nach A14 noch bedarf, denn mit A14 sind wir noch lange nicht bei einer 5090 im Mainstream angelangt.

Und es sagt ja auch niemand, dass man "plötzlich" High-End Hardware erwartet. Im Gegenteil, das ist der lauf der Dinge, dass es später nicht mehr High-End ist. Gerade darum gehts. Die Frage "wofür denn noch mehr" kann man nicht mit "man kann ja nicht erwarten, dass High-End zu Mainstream wird" beantworten. Dann kann man auch gleich sagen, "ich bin der Meinung, es gibt keinen Fortschritt mehr nach A14" und nicht "ich stelle in Frage, ob Fortschritt noch benötigt wird" (ich weiss schon, dass Badesalz die Frage gestellt hat und nicht du).

@Platos
Ja, ich betrachtete das erstmal primär aus der CPU-Sicht. Schon ok. Keiner Sprach von einem Ende der Architekturenentwicklung ;) Das wird sich alles bis A14 noch brauchbar steigern.
Aber "da gibt es auch Gründe" ist bisschen schlapp. Für die GPU dagegen wäre mir da noch bisschen was eingefallen.

Und da wird es immer dünner (CPU, daheim). Übrigens empfehle ich weiterhin in Threads zu rechnen. Mit Kernen - dei einen so, die anderen so - kann ich nichts anfangen. Aber was da angeht haben wir jetzt schon FAST genug Threads. Jetzt mal davon ab, daß nicht alles trivial unendlich parallelisierbar ist und man mit steigender Threadanzahl für einen einzigen fetten Job auch Packagepower immer weiter ausreizt und dafür wieder mit dem Takt dealen muss. Dazu kommt noch der Verwaltungsaufwand beim ggf. in-sync halten der Threads (was z.B. Cinebench nicht interessiert)

Mit Zen6 bekommt man jetzt im "Standard X3D" 24 Threads. Nur als bBeispiel, aber für wen das als Entwickler einer Consumersoft nicht üppig ist, der hat imho ein in-house Problem in der Entwicklung. Egal ob Game oder Anwendung.


Ja schön und gut, aber die Welt besteht nicht nur aus CPU. Du kannst nur auf CPU antworten, aber damit machst du es dir natürlich einfach, weil gerade die GPU den grössten bedarf hätte ;)

Aber "Standard X3D" ist ja wohl weit weg von Mainstream. Dieser "Standard" entspricht bei Zen5 einem 8-Kerner mit 3D-Cache und dieser ist preislich gesehen ganz weit weg von Mainstream. Das wird dann dieser mit 24 Threads auch sein. Mit Zen7 (evtl. ja TSMC A14?) gehts vlt. eher in die Richtung, aber sicher ist das auch nicht.

Aber wie gesagt: GPU hast du natürlich gekonnt einfach ausgeblendet;)

Badesalz
2026-02-22, 13:44:29
Ja schön und gut, aber die Welt besteht nicht nur aus CPU. Du kannst nur auf CPU antworten, aber damit machst du es dir natürlich einfach, weil gerade die GPU den grössten bedarf hätte ;)Das könnte ggf. aber auch der Grund sein, warum ich dir die Meinung über GPUs belassen habe :wink: Und wir kennen uns auch schon paar Tage. Ich weiß daher nicht wie du auf die Idee kommst, es ist für mich ganz einfach dir Recht zu geben :biggrin:
Aber "Standard X3D" ist ja wohl weit weg von Mainstream. Dieser "Standard" entspricht bei Zen5 einem 8-Kerner mit 3D-Cache und dieser ist preislich gesehen ganz weit weg von Mainstream.Keine Idee was du dann als Mainstream meinst. Leute mit einem Optiplex 7040 bis 7060 interessiert das doch eh nicht. Alle anderen die ich kennen haben irgendeinen x3d.
Mainstream ist, wenn der 9800X3D kommt und die Mainstream-Leute endlich gebrauchte 5800X3D und gebrauchte 7800X3D kaufen ;)

Sonst s.u.
Aber wie gesagt: GPU hast du natürlich gekonnt einfach ausgeblendet;)Irgendein Stachel wieder... Nein. Ich wollte nicht gleich eine ganze A4 Seite voll machen.
Dein Plot ist schlicht. Wir brauchen das noch zwingend, um den Armen zu helfen sich preiswert (??) zu steigern und da das beschnittene Vollausbauten sind, muss es jene auch geben (und auf dem Markt) und damit profitiere auch ich davon für Mainstream einzustehen. Kann man natürlich machen :up: Mal sehen obs funktioniert. Früher schon. Mit PSSR, FSR und DLSS wird die Übung aber ungleich schwerer. Vor allem da der vermeintliche Mainstream auch weniger Pixelpeeper beinhaltet.

Die 6090 wird schon ewig dauern und die 7090 wahrscheinlich noch länger. Ganz unabhängig von A14... Die Schlüsselfrage ist eher, wie preiswert eine 6070(Ti) in N2P sein kann. Es gibt keine preiswerten Prozesse mehr nach N4. Soll sie mit 8GB kommen? Obacht: Das ist noch eine einzige komplette Generation und hinterher kommt Mainstream schon mit APUs klar. Ou weia...

Platos
2026-02-22, 14:11:49
Ja gut, dann habe ich das wohl falsch verstanden mit dem Schwiegen zu den GPUs. Mein Fehler.

Ja, wie das mit der Wirtschaftlichkeit aussieht, steht in den Sternen, aber solange noch die neuen Prozesse nicht nur noch für Enthusiast/High-End genutzt wird, wird das P/L auch noch steigen aus meiner Sicht (auch wenn wir alle gesehen haben, dass es bei GPUs und auch CPUs gerne mal Generationen geben kann, wo das kurzfristig nicht so ist und es trotzdem irgendwie auf den Markt kommt).

Bei Zen6 soll ja alles mit 2nm TSMC bedient werden (Da man bei CPUs ja mittlerweile mit Chiplets wunderbar wirtschaften kann, wäre alles andere ja irgendwie auch Blödsinn). Bei Zen7 gehe ich vom gleichen aus beim jeweiligen Prozess.

Bei GPUs kann ich mir schon vorstellen, dass man entweder die Mainstream-GPUs in einem alten Prozess fertigt oder aber gleich keine neuen Mainstream produziert und alte Generationen für Mainstream nutzt (irgendwann dann, ab A14 z.B).

Und ich meinte mit Mainstream hald die Leute, die die Masse ausmachen. Also eher günstig kaufen, d.h nicht ein 8-Kerner mit 3D Cache sondern ein 6-Kerner ohne, also deutlich unter 300$/Euro. Die beissen ja sowieso schon auf die Zähne, weil nämlich gefühlt der ganze Hardwarebereich unterhalb von 200$/euro kaum mehr exisitert bei CPUs und GPUs. Gebraucht kaufen ist zwar klug, tut aber die Masse auch nicht, würde ich jetzt mal behaupten.

Aber ich verstehe ja, dass man mit ungewissheit auf die Wirtschaftlichkeit nach A14 blicken kann/muss und sich die Frage stellen kann/muss/sollte, ob es ohne mit der bisherigen Fertigungsmethode noch einen P/L Fortschritt geben wird. Aber das mit dem "brauchen wir das überhaupt?" würde ich wie gesagt dann mit "Ja" beantworten (brauchen tun wir natürlich nichts ausser Essen, Trinken und ein Dach über dem Kopf ;) )

Tobalt
2026-02-22, 15:59:24
Denkst du echt dass bei GPUs noch soooviel kommt? Größe und Power Targets lassen nicht mehr viel zu. Architektonisch... damit kann man OPs auch nicht aus dünner Luft erzeugen.

Die Geschwindigkeit mit der Leistung im Mainstream ankommt ist absolut am Boden. Meine letzte Grafikkarte kostete deshalb wieder 300€.. Das letzte Mal davor dass ich soviel bezahlt habe, war für eine Gefore 4 Ti 4400. Und war damals noch eher High End

The writing is on the wall.. Wäre es weiterhin easy, da alle 1-2 Jahre die Performance auf gleichem Target zu verdoppeln, würden sie es tun, und nicht seit Jahren die Akzeptanz für Dinge wie DLSS/FSR und AI denoising und zugehörige Low precision ALUs erhöhen (also Erhöhung der Software-Effizienz).

AffenJack
2026-02-22, 16:17:57
Klar, Softwareoptimierung wäre toll, ist aber rein logisch betrachtet einfach unwirtschaftlicher. Wenn man jede Software händisch optimieren muss, kommt das am Ende teurer, als einfach einmalig bessere Hardware zu kaufen. Wenn das jeder machen würde, wäre Software auf einmal viel tuerer...

Da würde ich wiedersprechen im GPU Bereich, man sieht doch gerade bei GPUs das allen Softwareanbietern klar ist, dass keine großen Steigerungen mehr kommen. In 10 Jahren kann man im Mainstream vielleicht mit einer Leistungsverdopplung rechnen, wenn nicht irgendwas revolutionäres passiert (Und Chiplets reichen da nicht aus, weil GPUs schlicht und einfach zuviel Fläche brauchen und das uns einmalig nen größeres Sprung gibt, das wars aber auch). Ohne Software ist das wertlos.

Ist in meinen Augen auch mit einer der Gründe wieso wir so eine Konsolidierung der Engines sehen. Unreal, Unity und ein paar einzelne werden weiterentwickelt und der Rest hat die Segel gestrichen. Vorbei sind die Zeit wo man mit seiner eigenen Engine zur Not eine Hardwaregen abwarten konnte, dass die GPUs schnell genug sind. Bei der UE5 hat man sich aber um einge Gen bei der Leistung verspekuliert und hätte wohl nicht gedacht, dass wir so schnell gegen ne Mauer rennen.

Die neuen Prozesse sind vor allem für Mobile und KI. Andere Einsatzgebiete gibts dann nach paar Jahren in andern Bereichen. CPUs sind wenigstens klein, da machen die Einschnitte in der Marge weniger Probleme und man kann noch etwas steigern.

Platos
2026-02-22, 16:55:42
Denkst du echt dass bei GPUs noch soooviel kommt? Größe und Power Targets lassen nicht mehr viel zu. Architektonisch... damit kann man OPs auch nicht aus dünner Luft erzeugen.

Die Geschwindigkeit mit der Leistung im Mainstream ankommt ist absolut am Boden. Meine letzte Grafikkarte kostete deshalb wieder 300€.. Das letzte Mal davor dass ich soviel bezahlt habe, war für eine Gefore 4 Ti 4400. Und war damals noch eher High End

The writing is on the wall.. Wäre es weiterhin easy, da alle 1-2 Jahre die Performance auf gleichem Target zu verdoppeln, würden sie es tun, und nicht seit Jahren die Akzeptanz für Dinge wie DLSS/FSR und AI denoising und zugehörige Low precision ALUs erhöhen (also Erhöhung der Software-Effizienz).

Da wurde meine Antwort wohl falsch verstanden. Wie in einem meiner Post erklärt, habe ich auf die Sinnfrage geantwortet, obs nach A14 überhaupt noch mehr Perfomance braucht (und nicht, obs noch einfach möglich ist).

Ich habe nie gesagt, dass danach die Shrimks moch extremst viel raus reissen werden (mittelfristig gesehen). Ich habe gesagt, dass man die Perfomance gut gebrauchen könnte bzw. einen weiteren Fortschritt.

Dass der Fortschritt immer langsamer geht, weiss ich. Ich glaube aber, dass es nach A14 weiterhin weiter geht (wirtschaftlich) und nicht komplett stehen bleibt bei den Shrinks. Aber ich gebe ja auch nur meinen Snef dazu. Ich arbeite nicht bei TSMC...

Da würde ich wiedersprechen im GPU Bereich, man sieht doch gerade bei GPUs das allen Softwareanbietern klar ist, dass keine großen Steigerungen mehr kommen. In 10 Jahren kann man im Mainstream vielleicht mit einer Leistungsverdopplung rechnen, wenn nicht irgendwas revolutionäres passiert (Und Chiplets reichen da nicht aus, weil GPUs schlicht und einfach zuviel Fläche brauchen und das uns einmalig nen größeres Sprung gibt, das wars aber auch). Ohne Software ist das wertlos.

Ist in meinen Augen auch mit einer der Gründe wieso wir so eine Konsolidierung der Engines sehen. Unreal, Unity und ein paar einzelne werden weiterentwickelt und der Rest hat die Segel gestrichen. Vorbei sind die Zeit wo man mit seiner eigenen Engine zur Not eine Hardwaregen abwarten konnte, dass die GPUs schnell genug sind. Bei der UE5 hat man sich aber um einge Gen bei der Leistung verspekuliert und hätte wohl nicht gedacht, dass wir so schnell gegen ne Mauer rennen.

Die neuen Prozesse sind vor allem für Mobile und KI. Andere Einsatzgebiete gibts dann nach paar Jahren in andern Bereichen. CPUs sind wenigstens klein, da machen die Einschnitte in der Marge weniger Probleme und man kann noch etwas steigern.

Das mit den Engines kommt aber nicht von der nahen Vergangenheit, sondern ist schon lange im Gange. Dass jeder seine eigene Engine hatte, war vor Pascal vlt. noch möglich, aber spätestens ab da gings ziemlich bergab mit dem Fortschritt, seit eben 16nm.

Die Engines sterben aber auch deshalb weg, weils immer mehr gibt (RT, Lumen, Nanite usw) und die immer mehr zu einem Baukastensystem werden. Das benötigt Entwicklung.

Es gibt auch kaum Software, wo man eig. mit jeder Generation massive Verbesserungen erwartet, wie das bei Engines der Fall ist oder bei Videospielen. Aber Videospiele belegen ja 1A, dass es günstiger ist, nicht zu viel zu optimieren ;)

Und bezüglich Fortschritt bei Hardware: Ich habe nie gesagt, dass sich der Fortschritt nicht weiter verlangsamt. Ich sage aber, dass er nicht tot ist nach A14. Aber klar, ein Upgrade lohnt sich für die meisten dann vlt. alle 10 Jahre. Bei CPUs war das auch so vor nicht allzu langer Zeit.

Und ja, bezüglich anderen Möglichkeiten als nur Shrinken halte ich Chiplets für GPUs auch eher für nicht wirklich was grosses.

Und was dann in 10-15 Jahren möglich ist, weiss ich auch nicht. Vlt. gibts dann mehr photonic oder Röntgenbelichtung oder sonst was. Das muss es auf jeden Fall, sonst wird es ein Crash geben, wenn auf einmal niemand mehr neue Geräte braucht (Bei gleich bleibender Bevölkerung).

Badesalz
2026-02-22, 19:14:52
Bei der UE5 hat man sich aber um einge Gen bei der Leistung verspekuliert und hätte wohl nicht gedacht, dass wir so schnell gegen ne Mauer rennen.War sie für die PS5/PS5pro nie ein größeres Thema? :|

@all
Wenn wir die Datenschieberei mehr Richtung Photonics bekommen, dann bleibt erstmal wieder bisschen was vom power budget über.
2026 muss man nicht alles schwarz malen, sich aber auch langsam klar im Kopf werden, daß all die Mauer langsam gut sichtbar werden, macht Sinn.

Ihr wisst eh was der Trick sein soll.
Wifi 8 VR auf der Birne + Controller in den Griffeln, 2Gbit Glasfaserleitung zum Router, Wifi 8 6 Ghz AP (/WLAN-Router) im gleichen Raum und ein Abo für 2x wassergekühlte 8090 im Server mit garantierter Mindestleistung (mit laufzeit_variablem DLSS 6.2). Plus ein Abo für das Spiel.
Da, kann das Ding auch 2kW ziehen.

Ready, Player One?

@Platos
Natürlich wird es noch lange Fortschritt geben. Gut portioniert ;) ALUs z.B. sind heute schon so pervers schnell, daß man kaum adäquat die Daten hingekarrt bekommt. Eine Gleichung die aktuell z.B. vom Apple TEILS gelöst wurde.

Badesalz
2026-02-24, 11:47:14
Nicht besser, aber wenigstens mehr und auch mehr heile (?) :)
https://www.computerbase.de/news/wirtschaft/bessere-lichtquelle-fuer-euv-asml-sieht-skalierbarkeit-von-600-zu-1-000-und-gar-2-000-watt.96268/

Platos
2026-02-28, 10:28:47
Vor ein paar Jahren kam mal von Imec ne Roadmap raus, die ja die Prozesse bis A2 zeigte und bis 2039 ging: https://www.imec-int.com/en/articles/smaller-better-faster-imec-presents-chip-scaling-roadmap

Und hier auch nochnals mit etwas technischem Zeugs: https://www.imec-int.com/en/articles/introducing-2d-material-based-devices-logic-scaling-roadmap

https://anastasiintech.substack.com/p/the-new-chip-industry-roadmap

TSMCs A10 soll ja auch um 2030 rum verfügbar werden. https://www.tomshardware.com/tech-industry/semiconductors/tsmcs-board-approves-usd45-billion-spending-package-on-new-fabs-record-sign-off-signals-aggressive-expansion-to-grow-capacity

Ein bisschen Potential ist schon noch da mit High-NA EUV. Aber einfach ist es hald nicht. Nur um nochmals die Frage "was kommt nach A14" aufzugreifen.