Wird die 2nm-Chipfertigung an physikalischen Grenzen scheitern oder mit neuen Architekturen beherrschbar bleiben?

3 Antworten

A: 2nm ist nicht echte physikalische 2nm. Was TSMC und Intel als Namensgebung verwenden hat nichts mit der physischen Größe zu tun

B: Produziert TSMC bereits 2nm erfolgreich (Sogar bessere Yields als bei vorherigen Prozessen) und arbeitet bereits an 16A (A für Angström)

C: Gibt es bereits einen neuen Prozess mit dem Namen GAA (Gate all around was du ja selbst erwähnt hast) was den alten Finfet Prozess ablöst um eben genau diese Probleme mit den Leckströmen entgegen zu wirken.

A16 wird zudem auch Backside Power Delivery haben um für bessere Temperaturen und Effizienz zu sorgen.

Woher ich das weiß:Hobby – Informatik Studium und Computer als Hobby.

Also indirekt fragst du "ist Moores Gesetzt Tot"?

Da wurde postuliert das alle 2 Jahre auf der selben Fläche doppelt so viele Bauteile untergebracht werden können, also eine halbierung der Struckturbreite.

In der Vergangenheit hat dies auch sehr zuverlässig funktioniert.

Ein Blick in die Glaskugel ist immer sehr schwierig aber manchmal is auch der Blick in den Rückspiegel sehr hilfreich.

Eigentlihc müsste die Frge sein, wie macht man Computer schneller?

  • Erhöhung des Basistaktes
  • Mehr Kerne
  • und Verkleinerung der Struckturbreiten

Also ich habe die Entwicklung von 1990 bis 2005 live miterlebt und in dieser Zeit da ging regelrecht die Post ab. Innerhalb dieser Zeit ist der Takt von 8 Mhz auf 3 Ghz gestiegen. Man kann erkennen das mitlerweile ein Takt von 6 Ghz fast wie ein Schallmauer ist. An dieser Stellschraube kann man einfach nicht mehr drehen, die Zeiten wo jede neue CPU generation doppelt so hohe Taktraten hatte ist vorbei.

Mehr Kerne.

Die Mehrkerntechnologie auf einem Chip wurde 2006 mit Intel Conroe eingeführt und Stand der TEchnik ist heute 8 Kern und selbst 64 Kerne ist heute längst massenmarkt. An dieser Stellschraube kann man natürlich noch etwas drehen, aber das ist dann eher ein Datencenter oder Server als ein klassischer Computer.

Verkleinerung der Struckturbreite

Hier stösst man mitlerweile in den Sub-Atomaren Bereich vor, wo die klasischen Natürugesetzte einfach nicht mehr gelten. Die Chips werden "belichtet" und mitlerweile sind Tageslichtphotonen einfach viel zu gross für die benötigten struckturbreiten. Also muss man kurzwelligeres Licht wählen wie Ultravialot. Aber man merkt das ähnlich wie bei einem klassichen Radio irgendwann einfach das Frenqueznband zu ende ist und es "Kleiner als Klein" einfach nicht gibt.

GAA FETs für unter 2nm sind schon gut, aber lecks und hitze bleiben problematisch. Schwankungen bei spannungen machen fertigung schwer. Backside power und metall helfen bei wärme und signale, aber lösen nicht alles. Irgendwann ist silizium am limit, dann helfen chiplets und heterogene integration weiter. Maskenkosten bei 2nm sind mega hoch, da muss man genau rechnen. Technik geht klar, wird aber immer teurer und komplexer.