CPU und GPU Grenze?
Hi ich hab mal gehört dass sich die Leistung von Computerchips alle 2 Jahre verbessern oder verdoppeln soll, man jetzt aber an einem Punkt angekommen sein soll an dem es Physikalisch nicht mehr möglich ist noch kleiner zu bauen, da man schon bei 5 Nanometern oder so in der Größenordnung liegt. Deshalb wäre meine Frage ob es nicht viel viel einfacher wäre anstatt die Größe der CPUs die bei etwa 4,5 cm x 4,5 cm liegt auf z.b. 15x15 oder 20x20 cm zu vergrössern, und die Recheneinheiten von 5 z.b. auf 20 Nanometern vergrößern weil man durch eine größere Fläche viel mehr Hitze abtransportieren könnte. Dann müsste man halt in Zukunft die Motherboards etwas ändern, aber es wäre doch technisch machbar.
3 Antworten
Weil das einen gigantischen Verbrauch bedeuten würde, ganz zu schweigen von den immensen Kosten. Je größer ein Chip, desto wahrscheinlichen sind Beschädigungen, weshalb Chiplet-Desgins, die aus mehreren, kleineren Bauteilen zusammengesetzt werden, auch deutlich günstiger in der Produktion sind.
Heute gebräuchliche Wafer sind 150-300mm im Durchmesser groß, dein 15*15cm Chip würde als nicht einmal auf einen ganzen 200mm Wafer passen (der Umkreisradius von einem Quadrat mit 15cm Seitenlänge beträgt etwa 10,6cm, als ein Durchmesser von 21,2cm, würde also nur auf einen großen 300mm Wafer passen. Einer statt dutzender Chips, dazu höhere Ausfallquote... Da würden die Chips locker das 20- oder 30-fache, wenn nicht noch mehr, kosten).
Außerdem ging es bei mooresche law ja darum, dass sich Rechenkapazität etwa alle zwei Jahre verdoppelt, sprich die Effizienz. Einfach größere Chips mit mehr Verbrauch bauen war schon immer möglich und wird auch gemacht, siehe RTX 4090. Es wird auch in jeder Produktion gemacht, eine 5950x ist größer als eine 5600x (nur die Die-Fläche, also v.a. von deiner Perspektive der Heatspreader oben drüber, ist gleich groß).
Es gäbe auch noch deutlich mehr Probleme technischer Natur, wie viel zu hohe Latenzen beim L3 Cache, schwierige Anbindung an Arbeitsspeicher und I/O, Abführen der Wärme und und und. Aber die Grundidee ist schon ziemlich unvernünftig und keine Lösung für das Problem. Neue Werkstoffe, die kleiner Nodes ermöglichen wären es.
Du redest vom Mooreschem Gesetz, was auch eher als Faustregel gilt, als als wirklich Gesetz.
Aber ja, an dem Punkt, an dem das nicht mehr funktioniert sind wir bereits.
Wer sagt denn das man an der grenze ist? Quelle?
Klar, wenn man die chips größer statt kleiner bauen würde, wären weniger Probleme da, allerdings ist da bestimmt irgendwo ein hacken der das verhindert, ich mein ja nur, sonst hätten all die großen Firmen das ja schon getan oder?
Hacker? Ich habe Hacken ✔️ geschrieben, wie z.B das da irgendein detail das ich grad nicht aufem Schirm habe sowas verhindert. Das es da eine Grenze gibt wusste ich garnicht, klar das irgendwann ein Ende ist aber trotzdem kann man da bestimmt noch was optimieren
Oh ups ist schon spät 🙈😄. Aber ja glaube ich auch
Außerdem denke ich das es irgendwann eine andere Methode werden gibt, z.b ein anderer stoff als silicium den wir noch entdecken werden oder Quantenmechanik? Vielleicht? Die Menschen werden es schon schaffen eine lösung zu finden, aber solange ich zocken kann ist es mir auch egal😜
Ja mir eigentlich auch, es gibt auch optische Computer die in Zukunft vielversprechend sein könnten.
Eben, einfach abwarten und die "Genies" da oben machen lassen
Das ist ein Ausschnitt den ich im Internet gefunden habe
wie klein kann eine CPU werden?
Bis zu zehn Milliarden Transistoren ballen sich heute auf einem einzigen Chip. Doch die Grenze der Siliziumtechnologie ist absehbar. Bei Strukturen unter fünf Nanometer rechnen die Chipentwickler mit störenden Tunneleffekten, die ein verlässliches Schalten unmöglich machen.06.10.2016
ich glaube kaum dass ein Hacker Milliarden schwere Firmen davon abhalten könnte.