PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie entsteht "Ausschuss" in der Chipfertigung?


Lawmachine79
2016-11-03, 16:42:17
Hey Leute, immer wenn eine neue CPU/GPU-Generation ansteht, liest man, dass sich die "Ausbeute" stetig verbessert. Ausbeute bezeichnet nach meinem Verständnis - korrigiert mich - wieviele Dice von einem Wafer einwandfrei funktionieren. Es gibt also auch einen "Ausschuss".

Wie kommt der Ausschuss zu Stande?

Liegt es an der Materialqualität des Wafers?
Ob das Immersionslitographieverfahren in der jeweiligen Strukturbreite die Struktur auf den Träger aufbringen kann?
Stellt die Architektur eine Störgröße dar (meine es gelesen zu haben, kann es mir aber nicht vorstellen)?

Vielleicht hat ja jemand tiefere Einblicke.

Asaraki
2016-11-03, 16:49:49
Hey Leute, immer wenn eine neue CPU/GPU-Generation ansteht, liest man, dass sich die "Ausbeute" stetig verbessert. Ausbeute bezeichnet nach meinem Verständnis - korrigiert mich - wieviele Dice von einem Wafer einwandfrei funktionieren. Es gibt also auch einen "Ausschuss".

Wie kommt der Ausschuss zu Stande?

Liegt es an der Materialqualität des Wafers?
Ob das Immersionslitographieverfahren in der jeweiligen Strukturbreite die Struktur auf den Träger aufbringen kann?
Stellt die Architektur eine Störgröße dar (meine es gelesen zu haben, kann es mir aber nicht vorstellen)?

Vielleicht hat ja jemand tiefere Einblicke.

Also ich kann nur einen Teil davon beantworten.

Afaik ist der Hauptgrund für den Ausschuss die Ungenauigkeit im Herstellungsprozess. So toll wie alle Manufakturen heute sind, 100% genau ist das noch nicht. Daher hast du (vermutlich?) auf jedem Wafer Fehler.
Die Architektur, sofern du damit die Grösse des fertigen Chips meinst, spielt natürlich rein, da je grösser der Chip, desto eher ist er von einem Fehler betroffen. Wenn du jetzt auf einem Wafer „X Fehler“ hast, dann steigt die Chance, damit einen oder mehrere Chips zu verlieren natürlich mit der Grösse des Chips an.
Und mit jedem Shrink verändert sich natürlich das Verhältnis der Grösse eines Transistors zu der Genauigkeit des Fertigungsprozesses, bei 14 ggü . 28 ist der „gleiche Fehler“ natürlich doppelt so Gross bei einem 14nm Verfahren, respektive kann doppelt soviele Transistoren betreffen.

Hoffe ich hab jetzt nicht totalen Bullshit erzählt, ist definitiv nicht wirklich meine Materie :D

Skysnake
2016-11-03, 18:14:30
Chip zu produzieren ist eine Kunst. Du hast da ja sehr sehr sehr viele Schritte, die jeweils sehr genau abgestimmte Parameter wie Temperatur, Zeit und Konzentrationen von Stoffen haben.

Es gibt halt sehr sehr sehr viele mögliche Ursachen für einen Fehler. Es kann sein, das man ein Staubkorn auf dem Wafer hat, oder das man zu lange belichtet, oder zu kurz, oder dass der Wafer nicht richtig entgraded ist und sich ein Wulzt vom Belichter bildet, oder dass der Stepper nicht richtig positioniert ist, oder das die Belichtungsmaske verdreckt, oder dass die Dotierung nicht gut funktioniert, oder das man ein Problem mit den Rändern der Interconnects hat und sich daher eine erhöhte Elektromigration zeigt, oder oder oder oder

Gerade auch bei den Ätzprozessen, aber auch bei der Atomlagenabscheidung kann schnell mal etwas schief laufen, und dann ist halt ein Chip oder auch mal ein ganzer Wafer einfach für die Tonne. Da sammeln die Fertiger über die Zeit auch sehr sehr viel Erfahrung, wie Sie denn jetzt die Prozesse genau fahren müssen, also wie lange bei welcher Temperatur und welchem Druck usw usf.

Man kann daher auch durchaus sagen, dass die Produktion von Chips eine Kunst ist. Genau wie das ziehen von Glasfasern oder Silizium-Einkristallen. Im Prinzip ist das alles ziemlich simpel, aber wenn man wirklich qualitativ hochwertige Produkte will, dann ist es schon verdammt aufwendig, weil die Tücke im Detail steckt. Da braucht es einfach langjährige Erfahrung.

anorakker
2016-11-03, 18:25:23
Chipherstellung ist ein höchst serieller Prozess, d.h. in der Produktion gibt es genau ein "Werkstück" (der Wafer), das bis zum Ende bearbeitet wird.
Geht nur ein einizger Prozessschritt (und das sind hunderte) etwas daneben, dann kann man entweder den ganzen Wafer entsorgen oder hat im Idealfall nur einzelne Bereiche auf dem Wafer, die defekt sind.
Man kann da auch nichts nachbessern, was vergurkt ist, ist vergurkt.

Das mit der Kunst würd ich auch unterschreiebn, für mich gibt es keine fortschrittlichere Technologie als die Chipherstellung auf dieser Welt. Raketentechnik ist ein Witz dagegen.

BlueI
2016-11-03, 21:48:33
Das ist ja IMO der interessante Punkt: Von Fehlern bzgl. Staub inhomogener Dotierung etc. abgesehen (was Fehler beim Zulieferer respektive der Reinraumtechnik wären), scheinen die meisten angesprochenen Probleme den gesamten Wafer oder zumindest weite Teile davon zu betreffen.
Um's mal klar zu fragen: Ist also die, zumindest in meinem Kopf existierende, Vorstellung das einzelne Chips eines Wafers kaputt, alle anderen aber i.O. sind falsch? Bezieht sich ein Yield von bspw. 95% in der Realität eher darauf, dass von 100 Wafern 5 größtenteils defekt sind und halt nicht, dass auf einem Wafer 95 von 100 Chips funktionieren?

Skysnake
2016-11-04, 11:46:32
Naja, die entscheidende Frage ist ja auch, was ist denn eigentlich "defekt"?

Insbesondere bei den deep submicron Prozessen ist das nicht mehr so einfach zu sagen. Also insbesondere bei allem ab 28nm.

Du hast da so viel statistische Variabilität in den Chips, einfach weil die Struckturen so klein sind, und da schon eine Atomlage mehr oder weniger, oder auch mal ein paar Atome mehr oder weniger bei der Dotierung einen Unterschied machen können, dass das ziemlich schwer wird.

Dazu kommt dann noch elektromigration. Ist ein Chip, der heute funktioniert, aber statistisch gesehen zu 0,01% Wahrscheinlichkeit in 2 Jahren statt in 5 Jahren ausfällt nun "kaputt" oder nicht?

Oder wenn er eine Biterrorrate von "nur" 10^-13 statt 10^-15 schafft.

Oder wenn er nur bis 80°C funktioniert, aber nicht bis 100°C

Oder mit 1,18V statt 1,10V.

usw usf.

Harte Fehler kommen oft von Staub, Masken missalignment usw usf. Da ist dann auch wirklich ernsthaft etwas kaputt.

Die "Softerrors" sind heutzutage aber ein signifikanter Fehleranteil. Daher muss man auch aktiv sein Design so wählen, dass das möglichst robust ist.

Rooter
2016-11-04, 20:25:12
Also ich kann nur einen Teil davon beantworten.

Afaik ist der Hauptgrund für den Ausschuss die Ungenauigkeit im Herstellungsprozess. So toll wie alle Manufakturen heute sind, 100% genau ist das noch nicht. Daher hast du (vermutlich?) auf jedem Wafer Fehler.
Die Architektur, sofern du damit die Grösse des fertigen Chips meinst, spielt natürlich rein, da je grösser der Chip, desto eher ist er von einem Fehler betroffen. Wenn du jetzt auf einem Wafer „X Fehler“ hast, dann steigt die Chance, damit einen oder mehrere Chips zu verlieren natürlich mit der Grösse des Chips an.
Und mit jedem Shrink verändert sich natürlich das Verhältnis der Grösse eines Transistors zu der Genauigkeit des Fertigungsprozesses, bei 14 ggü . 28 ist der „gleiche Fehler“ natürlich doppelt so Gross bei einem 14nm Verfahren, respektive kann doppelt soviele Transistoren betreffen.Und weil es auf jedem Wafer Fehler gibt, gibt es auch so viele "Die YYY ist eine XXX mit einem deaktivierten Cluster."

Dazu kommt dann noch elektromigration. Ist ein Chip, der heute funktioniert, aber statistisch gesehen zu 0,01% Wahrscheinlichkeit in 2 Jahren statt in 5 Jahren ausfällt nun "kaputt" oder nicht?Ja, aber solche langfristigen Geschichten sind aber vermutlich nicht das, was der TS gemeint hat. ;)

MfG
Rooter

LadyWhirlwind
2016-11-04, 22:08:46
Und weil es auf jedem Wafer Fehler gibt, gibt es auch so viele "Die YYY ist eine XXX mit einem deaktivierten Cluster."

Ja, aber solche langfristigen Geschichten sind aber vermutlich nicht das, was der TS gemeint hat. ;)

MfG
Rooter

Was aber nicht heissen muss, dass er im Sinne des Kunden dann nicht als defekt gilt und darum als fehlerhaft in die entsprechende Statistik einfliesst. Aber eben, was defekt ist, ist eine Definitions-Frage. Aber auch gut möglich, dass auch als defekt gezählte Chips in irgendeiner weise auf dem Markt landen. Teildeaktivierte GPUs sind ein gutes Beispiel.

Jeder Wafer der kaputt ist, ja jede Einheit die nicht gebraucht werden kann, kostet Geld. Bei der Chipherstellung ist es besonders schlimm, weil ein serieller Prozess ist und keine Korrekturen möglich sind.
Daher sind natürlich alle Seiten bestrebt, die Fehlerraten zu korrigieren. Sprich ein gutes Qualitätsmanagement lohnt sich. Daher fliesst die Erfahrung die man im Laufe der Zeit sammelt, in den Herstellungsprozess ein. Das ist natürlich nicht nur in der Chipherstellung so, sondern auch in anderen Branchen. In der Chipherstellung ist die Ausbeute, bzw. der Yield eine wichtige Messgrösse für die Qualität bzw. die Reife eines Prozesses, daher spricht man auch davon.

pixeljetstream
2016-12-22, 16:35:00
Und weil es auf jedem Wafer Fehler gibt, gibt es auch so viele "Die YYY ist eine XXX mit einem deaktivierten Cluster."


Genau, und man muss vorher die hw so designen, dass sie mit der teildeaktivierung unterschiedlichster units klar kommt, um trotz Defekt den Chip noch sinnvoll nutzen zu können. Es ist nicht für alle units sinnvoll, aber die mit besonders viel Fläche sind anfälliger.

Das Konzept ist fundamentaler Bestandteil der Chipindustrie, möglichst retten was zu retten ist. Wenn dann die Rate sich im Verlauf der Zeit verbessert, kann man verhältnismäßig billiger die höherwertigeren Chips produzieren.

PHuV
2017-03-21, 15:04:27
In der c't-Ausgabe c't 03/2017, S. 78 (https://www.heise.de/ct/ausgabe/2017-3-SATA-SSDs-fuer-moeglichst-wenig-Geld-3597127.html) konnte man zum Thema SSD nachlesen, daß fehlerhafte NAND-Chips dann zu Billigpreisen an die Hersteller von Billig-SSDs verkauft werden, und die besten Chips für die eigene Produktion behalten werden.