Wird die 2nm-Chipfertigung an physikalischen Grenzen scheitern oder mit neuen Architekturen beherrschbar bleiben?
Ich bin IT-Ingenieur und befasse mich seit Jahren mit Hardware-Architektur und Halbleiterfertigung. Aktuell verfolge ich intensiv die Entwicklungen rund um 2nm- und Sub-2nm-Prozesse bei TSMC, Samsung und Intel.
Mich interessieren dabei die realen technischen Limitierungen, die mit dieser Fertigungsklasse einhergehen. Daher ein paar präzise Detailfragen an alle, die sich mit Halbleitertechnik wirklich auskennen:
- Wie weit sind Gate-All-Around-FETs (GAA) für unter 2nm aktuell wirklich einsatzreif — und wie problematisch sind Leckströme und thermische Herausforderungen in der Praxis?
- Inwiefern beeinflussen Variability-Induced Performance Loss und Threshold Voltage Shifts die Zuverlässigkeit und Serienfertigung bei solchen Gate-Längen?
- Welche Rolle spielen Backside Power Delivery Network (BSPDN) und Backside Metallization konkret für thermische Entkopplung und Signalintegrität?
- Gibt es eurer Meinung nach einen physikalischen Punkt, an dem Miniaturisierung bei klassischen Silizium-basierten Prozessen keinen Sinn mehr macht, und ab wann nur noch Chiplet-Designs und Heterogeneous Integration den Fortschritt sichern können?
- Und zum Schluss: Wie schätzt ihr die künftige Kosten-Nutzen-Relation bei Maskensätzen für 2nm und darunter ein, speziell bei EUV-Lithografie und möglichen Nachfolgetechnologien?
Freue mich auf technisch fundierte Meinungen — idealerweise von Leuten aus der Chipentwicklung, Halbleiterfertigung oder Embedded-Branche.
3 Antworten
A: 2nm ist nicht echte physikalische 2nm. Was TSMC und Intel als Namensgebung verwenden hat nichts mit der physischen Größe zu tun
B: Produziert TSMC bereits 2nm erfolgreich (Sogar bessere Yields als bei vorherigen Prozessen) und arbeitet bereits an 16A (A für Angström)
C: Gibt es bereits einen neuen Prozess mit dem Namen GAA (Gate all around was du ja selbst erwähnt hast) was den alten Finfet Prozess ablöst um eben genau diese Probleme mit den Leckströmen entgegen zu wirken.
A16 wird zudem auch Backside Power Delivery haben um für bessere Temperaturen und Effizienz zu sorgen.
Also indirekt fragst du "ist Moores Gesetzt Tot"?
Da wurde postuliert das alle 2 Jahre auf der selben Fläche doppelt so viele Bauteile untergebracht werden können, also eine halbierung der Struckturbreite.
In der Vergangenheit hat dies auch sehr zuverlässig funktioniert.
Ein Blick in die Glaskugel ist immer sehr schwierig aber manchmal is auch der Blick in den Rückspiegel sehr hilfreich.
Eigentlihc müsste die Frge sein, wie macht man Computer schneller?
- Erhöhung des Basistaktes
- Mehr Kerne
- und Verkleinerung der Struckturbreiten
Also ich habe die Entwicklung von 1990 bis 2005 live miterlebt und in dieser Zeit da ging regelrecht die Post ab. Innerhalb dieser Zeit ist der Takt von 8 Mhz auf 3 Ghz gestiegen. Man kann erkennen das mitlerweile ein Takt von 6 Ghz fast wie ein Schallmauer ist. An dieser Stellschraube kann man einfach nicht mehr drehen, die Zeiten wo jede neue CPU generation doppelt so hohe Taktraten hatte ist vorbei.
Mehr Kerne.
Die Mehrkerntechnologie auf einem Chip wurde 2006 mit Intel Conroe eingeführt und Stand der TEchnik ist heute 8 Kern und selbst 64 Kerne ist heute längst massenmarkt. An dieser Stellschraube kann man natürlich noch etwas drehen, aber das ist dann eher ein Datencenter oder Server als ein klassischer Computer.
Verkleinerung der Struckturbreite
Hier stösst man mitlerweile in den Sub-Atomaren Bereich vor, wo die klasischen Natürugesetzte einfach nicht mehr gelten. Die Chips werden "belichtet" und mitlerweile sind Tageslichtphotonen einfach viel zu gross für die benötigten struckturbreiten. Also muss man kurzwelligeres Licht wählen wie Ultravialot. Aber man merkt das ähnlich wie bei einem klassichen Radio irgendwann einfach das Frenqueznband zu ende ist und es "Kleiner als Klein" einfach nicht gibt.
GAA FETs für unter 2nm sind schon gut, aber lecks und hitze bleiben problematisch. Schwankungen bei spannungen machen fertigung schwer. Backside power und metall helfen bei wärme und signale, aber lösen nicht alles. Irgendwann ist silizium am limit, dann helfen chiplets und heterogene integration weiter. Maskenkosten bei 2nm sind mega hoch, da muss man genau rechnen. Technik geht klar, wird aber immer teurer und komplexer.