CPU und GPU Grenze?

3 Antworten

Weil das einen gigantischen Verbrauch bedeuten würde, ganz zu schweigen von den immensen Kosten. Je größer ein Chip, desto wahrscheinlichen sind Beschädigungen, weshalb Chiplet-Desgins, die aus mehreren, kleineren Bauteilen zusammengesetzt werden, auch deutlich günstiger in der Produktion sind.

Heute gebräuchliche Wafer sind 150-300mm im Durchmesser groß, dein 15*15cm Chip würde als nicht einmal auf einen ganzen 200mm Wafer passen (der Umkreisradius von einem Quadrat mit 15cm Seitenlänge beträgt etwa 10,6cm, als ein Durchmesser von 21,2cm, würde also nur auf einen großen 300mm Wafer passen. Einer statt dutzender Chips, dazu höhere Ausfallquote... Da würden die Chips locker das 20- oder 30-fache, wenn nicht noch mehr, kosten).

Außerdem ging es bei mooresche law ja darum, dass sich Rechenkapazität etwa alle zwei Jahre verdoppelt, sprich die Effizienz. Einfach größere Chips mit mehr Verbrauch bauen war schon immer möglich und wird auch gemacht, siehe RTX 4090. Es wird auch in jeder Produktion gemacht, eine 5950x ist größer als eine 5600x (nur die Die-Fläche, also v.a. von deiner Perspektive der Heatspreader oben drüber, ist gleich groß).

Es gäbe auch noch deutlich mehr Probleme technischer Natur, wie viel zu hohe Latenzen beim L3 Cache, schwierige Anbindung an Arbeitsspeicher und I/O, Abführen der Wärme und und und. Aber die Grundidee ist schon ziemlich unvernünftig und keine Lösung für das Problem. Neue Werkstoffe, die kleiner Nodes ermöglichen wären es.

Du redest vom Mooreschem Gesetz, was auch eher als Faustregel gilt, als als wirklich Gesetz.

Aber ja, an dem Punkt, an dem das nicht mehr funktioniert sind wir bereits.

Wer sagt denn das man an der grenze ist? Quelle?

Klar, wenn man die chips größer statt kleiner bauen würde, wären weniger Probleme da, allerdings ist da bestimmt irgendwo ein hacken der das verhindert, ich mein ja nur, sonst hätten all die großen Firmen das ja schon getan oder?

Woher ich das weiß:Hobby – Eigene Erfahrungen

JanSaile 
Beitragsersteller
 29.12.2022, 04:57

Das ist ein Ausschnitt den ich im Internet gefunden habe

wie klein kann eine CPU werden?

Bis zu zehn Milliarden Transistoren ballen sich heute auf einem einzigen Chip. Doch die Grenze der Siliziumtechnologie ist absehbar. Bei Strukturen unter fünf Nanometer rechnen die Chipentwickler mit störenden Tunneleffekten, die ein verlässliches Schalten unmöglich machen.06.10.2016

ich glaube kaum dass ein Hacker Milliarden schwere Firmen davon abhalten könnte.

Anonym126113  29.12.2022, 05:05
@JanSaile

Hacker? Ich habe Hacken ✔️ geschrieben, wie z.B das da irgendein detail das ich grad nicht aufem Schirm habe sowas verhindert. Das es da eine Grenze gibt wusste ich garnicht, klar das irgendwann ein Ende ist aber trotzdem kann man da bestimmt noch was optimieren

JanSaile 
Beitragsersteller
 29.12.2022, 05:07
@Anonym126113

Oh ups ist schon spät 🙈😄. Aber ja glaube ich auch

Anonym126113  29.12.2022, 05:08
@Anonym126113

Außerdem denke ich das es irgendwann eine andere Methode werden gibt, z.b ein anderer stoff als silicium den wir noch entdecken werden oder Quantenmechanik? Vielleicht? Die Menschen werden es schon schaffen eine lösung zu finden, aber solange ich zocken kann ist es mir auch egal😜

JanSaile 
Beitragsersteller
 29.12.2022, 05:15
@Anonym126113

Ja mir eigentlich auch, es gibt auch optische Computer die in Zukunft vielversprechend sein könnten.