IT – die neusten Beiträge

Wird die 2nm-Chipfertigung an physikalischen Grenzen scheitern oder mit neuen Architekturen beherrschbar bleiben?

Ich bin IT-Ingenieur und befasse mich seit Jahren mit Hardware-Architektur und Halbleiterfertigung. Aktuell verfolge ich intensiv die Entwicklungen rund um 2nm- und Sub-2nm-Prozesse bei TSMC, Samsung und Intel.

Mich interessieren dabei die realen technischen Limitierungen, die mit dieser Fertigungsklasse einhergehen. Daher ein paar präzise Detailfragen an alle, die sich mit Halbleitertechnik wirklich auskennen:

  • Wie weit sind Gate-All-Around-FETs (GAA) für unter 2nm aktuell wirklich einsatzreif — und wie problematisch sind Leckströme und thermische Herausforderungen in der Praxis?
  • Inwiefern beeinflussen Variability-Induced Performance Loss und Threshold Voltage Shifts die Zuverlässigkeit und Serienfertigung bei solchen Gate-Längen?
  • Welche Rolle spielen Backside Power Delivery Network (BSPDN) und Backside Metallization konkret für thermische Entkopplung und Signalintegrität?
  • Gibt es eurer Meinung nach einen physikalischen Punkt, an dem Miniaturisierung bei klassischen Silizium-basierten Prozessen keinen Sinn mehr macht, und ab wann nur noch Chiplet-Designs und Heterogeneous Integration den Fortschritt sichern können?
  • Und zum Schluss: Wie schätzt ihr die künftige Kosten-Nutzen-Relation bei Maskensätzen für 2nm und darunter ein, speziell bei EUV-Lithografie und möglichen Nachfolgetechnologien?

Freue mich auf technisch fundierte Meinungen — idealerweise von Leuten aus der Chipentwicklung, Halbleiterfertigung oder Embedded-Branche.

PC, Computer, Technik, Netzwerk, IT, USA, Chip, Intel, Nvidia

Frage an Mathematik und theoretische Informatik: Wird es jemals sog. "starke" KI geben können?

|

Unter starker KI (sog. "Superintelligenz") versteht man KI, die in keiner Hinsicht mehr weniger leistungsfähig ist als menschliche Gehirne.

Mark Zuckerburg scheint mit seinem bisherigen KI-Chef-Entwickler unzufrieden zu sein, da der glaubt, dass es sicher noch wenigstens 5 Jahre dauern wird, bis wir erste starke KI haben.

Roger Penrose skizziert in einem seiner Bücher einen Beweis dafür, dass starke KI kein Algorithmus sein kann (ganz prinzipiell nicht).

Alle heute bekannte KI aber ist Algorithmus.

Künstliche Intelligenz erkennt Objekte. Aber weiß sie auch, was man mit ihnen tun kann? Eine aktuelle Studie zeigt, warum unser Gehirn der Technik immer noch einen entscheidenden Schritt voraus ist.

Mehr zum Thema Gesellschaft & Psychologie

Ein kurzer Blick auf eine fremde Umgebung genügt, und schon wissen wir instinktiv: Hier kann man laufen, dort müsste man klettern, und in jenem Gewässer könnte man schwimmen. Diese Fähigkeit mag selbstverständlich erscheinen, doch wie das Gehirn diese Handlungsmöglichkeiten erkennt, war bisher weitgehend unerforscht.

Ein Team der Universität Amsterdam hat nun in einer aktuellen Studie nachgewiesen, dass unser Gehirn über einzigartige Aktivierungsmuster verfügt, die es uns ermöglichen, Fortbewegungsmöglichkeiten in unserer Umgebung sofort zu erkennen – eine Fähigkeit, an der selbst fortschrittlichste KI-Systeme bisher scheitern.

Man lese

  1. https://www.gmx.net/magazine/wissen/psychologie/aspekt-menschliche-gehirn-ki-ueberlegen-41088554
  2. Geht es nach Mark Zuckerberg, sind wir künftig alle mit einer KI befreundet - Zukunft - derStandard.de › Wissen und Gesellschaft
  3. https://the-decoder.de/metas-ki-chef-nennt-generative-ki-eine-sackgasse-und-liefert-mit-v-jepa-2-die-alternative/
Computer, Mathematik, Technik, IT, Informatik, Informationstechnik, künstliche Intelligenz, LLM, Superintelligenz, ChatGPT

Probleme mit dem Rechner (schwarzer Bildschirm?!)?

Sehr geehrte Damen und Herren,

seit geraumer Zeit hab ich Probleme mit meinem PC.
Vor mehreren Monaten hab ich mal meinen Chipsatztreiber von AMD geupdated und ab da fingen die Probleme an. (Nvidia Grafiktreiber wird immer automatisch geupdatet).

Völlig zufällig gehen die Bildschirme aus, die Lüfter drehen auf Volllast und es hilft nur noch ein Neustart.
Seltsamerweise stürzt der Rechner aber nicht ab. Ich höre sowohl Sound und wenn ich im TS sitze hört man sowohl mich noch als auch ich andere. Wenn ich in einem Spiel bin habe ich keinen Disconnect oder ähnliches.

Nach dem Neustart steht in der Ereignisanzeige auch keine Fehlermeldung (lediglich kritischer Fehler wegen unerwartetem Neustart des Systems).

Kurz nach dem Treiberupdate war die Sache massiv instabil. Ich dachte also dass es klar daran liegen muss. (Systemwiederherstellung lies Windows nicht zu.)
Hab also alles wieder deinstalliert und eine ältere Treiberversion installiert.
Damit ging der Rechner wieder einigermaßen. Die AMD-Treiber hab ich erstmal sein gelassen, Grafiktreiber update ich regelmäßig über Game Ready)

Mittlerweile hat er 1-2 mal pro Tag solche "Abstürze", meistens innerhalb der ersten halben Stunde nach dem einschalten. Dann komischerweise nicht mehr.

Was könnte denn die Ursache für das Problem sein? Ich komm nicht mehr wirklich weiter und Google bietet zu viele verschiedene Optionen.

Vielen Dank!

Grafikkarte, IT, Treiber, Windows 10

DIVERA Wachenmonitor und Homematic IP wie lösen?

Moin,

Meine Wehrführung ist an mich herangetreten um die Einbindung von Rauchmeldern in divera zu realisieren da man mittlerweile an die eigenen Grenzen gestoßen ist und nicht mehr weiter kommt.

Dem Wunsch will ich gerne nachkommen. Nur stehe ich grade komplett auf den Schlauch und hoffe hier jemanden zu finden der mir die zündende Idee geben kann.

Folgender Aufbau ist vorhanden: Raspberry Pi 4 auf dem Rasbian bzw Raspberry Pi OS mit Divera läuft. Das Ganze als Wochenmonitor.

Es wurden beschafft Homematic IP Rauchmelder mit Homematic IP Acces Point.

Jetzt weiß ich das ich den HAP als Repeater in die CCU integrieren kann.

Angewendet soll folgende Anleitung.

https://help.divera247.com/pages/viewpage.action?pageId=140378552

Jetzt aber mein Problem an dem ich hänge:

Ich brauche auf dem Raspberry Pi 4 anstatt raspbian/Raspberry Pi OS dann Raspberrymatic damit ich den entsprechenden CUxD installieren kann. Problem ist das Raspberrymatic keine Desktop hat und wenn mich nicht alles täuscht auch keine Möglichkeit vorsieht einen zu installieren.

Folglich brauche ich einen zweiten Raspberry Pi um weiterhin den Wachenmonitor mir anzeigen zu lassen oder sehe ich das falsch? Oder gibt es eine andere Möglichkeit die ich bisher übersehen habe bzw die ich nicht gefunden/verstanden habe?

Danke schon Mal für die Hilfe.

Gewisse Grundlagen sind meinerseits vorhanden, falls die Frage aufkommt, nur manchmal sieht man den berühmten Wald ja nicht.

Linux, Feuerwehr, IT, BOS, Ehrenamt, Freiwillige Feuerwehr, Rauchmelder, Debian, Raspberry Pi, HomeMatic IP, Raspberry Pi 4

Wird NVME SSD in Zukunft fast genau so aussehen wie eine Grafikkarte?

Hallo.

Also ich habe gehört, die SSDs werden von Generation zu Generation nicht nur immer schneller, sondern wahrscheinlich auch immer Wärmer. Denn gerade ab denn 5. Generation ist schon eine Kühlung empfohlen und sind deswegen meistens mit einem Kühlkörper ausgestattet.

Und da ahne ich nichts gutes, weil es langsam mit dem Kühlung auch bei SSD los gehen wird, wenn sie immer schneller werden und immer mehr Wärme brauchen. Und wie würde es dann bei 7, oder 8 Generation von Nvme SSD aussehen, ist dann eine Aktive Kühlung empfohlen und spätestens ab 10. Generation Lüfter Erforderlich.

Und dass ab der 20ste Generation von Nvme SSD dann fast genau so aussehen kann, wie eine Grafikkarte, dass standartmäßig mit 2 Lüfter intergriert ist. Dass hoffe ich nicht.

Weil ich weiß, die älteste Prozessor war damals nicht mal Wärmeleitpaste erforderlich, und man könnte die Mini Lüfter einfach so am CPU legen und schon wird es gekühlt. Das wäre bei heutige CPU (z. B. bei Intel Core i Reihe oder AMD Ryzen) absolut gar nicht ausreichend. In heutige CPU ist es schon Ersckeckend, wie sie mit Fetten Kühlkörper mit Lüfter ausgestattet oder dass soggar Wasserkühlung empfohlen wird (Was auch unpraktisch ist weil man das Wasser erneuern muss).

Oder bei erste Generation von Nvidia Geforce Grafikkarte, war Aktive Kühlung damals auch nicht notwendig. Aber dann mit der Zeit, bekam die nächste Generation von Geforce eine Mini Lüfter, dann größere Lüfter und jetzt seit der RTX Reihe standartmäßig meist 2 Lüfter oder einige Hersteller der RTX Produziert soggar mit 3 Lüfter.

Und daher habe ich die befürchtung dass auch SSD bald dran sein wird, wenn man die SSD Geschwindigkeit immer weiter ansteigt, auf die Energie Effizentz vermutelich wenig achtet, dass SSD irgendwann mehr Kühlkörper, Wärmeleit paste, irgendwann Aktive Lüfter und Wahrscheinlich auch dazu Netzteil Stromanschluss. Das heißt, wenn man kein Wasserkühlung mag, wird der Rechner wahrscheinlich durch solche NVME SSD noch Lauter, man noch mehr um Temperatur achten muss und dazu wahrscheinlich mehr Stromverbrauch.

Aber was meint ihr, wenn ihr feststellt, dass heutige neuste Nvme SSD eine Kühlkörper und wegen Lebensdauer auch Kühlung empfohlen wird, wie würde es mit dem 20ste Generation aussehen? Wird SSD in Zukunft wirklich bald so aussehen wie auf dem Bild?

Bild zum Beitrag
PC, Computer, Zukunft, Technik, Lüfter, Hardware, Elektronik, IT, Festplatte, Kühlung, Rechner, SSD, Solid-State-Drive, M.2 SSD

Meistgelesene Beiträge zum Thema IT