Computer – die besten Beiträge

Wird die 2nm-Chipfertigung an physikalischen Grenzen scheitern oder mit neuen Architekturen beherrschbar bleiben?

Ich bin IT-Ingenieur und befasse mich seit Jahren mit Hardware-Architektur und Halbleiterfertigung. Aktuell verfolge ich intensiv die Entwicklungen rund um 2nm- und Sub-2nm-Prozesse bei TSMC, Samsung und Intel.

Mich interessieren dabei die realen technischen Limitierungen, die mit dieser Fertigungsklasse einhergehen. Daher ein paar präzise Detailfragen an alle, die sich mit Halbleitertechnik wirklich auskennen:

  • Wie weit sind Gate-All-Around-FETs (GAA) für unter 2nm aktuell wirklich einsatzreif — und wie problematisch sind Leckströme und thermische Herausforderungen in der Praxis?
  • Inwiefern beeinflussen Variability-Induced Performance Loss und Threshold Voltage Shifts die Zuverlässigkeit und Serienfertigung bei solchen Gate-Längen?
  • Welche Rolle spielen Backside Power Delivery Network (BSPDN) und Backside Metallization konkret für thermische Entkopplung und Signalintegrität?
  • Gibt es eurer Meinung nach einen physikalischen Punkt, an dem Miniaturisierung bei klassischen Silizium-basierten Prozessen keinen Sinn mehr macht, und ab wann nur noch Chiplet-Designs und Heterogeneous Integration den Fortschritt sichern können?
  • Und zum Schluss: Wie schätzt ihr die künftige Kosten-Nutzen-Relation bei Maskensätzen für 2nm und darunter ein, speziell bei EUV-Lithografie und möglichen Nachfolgetechnologien?

Freue mich auf technisch fundierte Meinungen — idealerweise von Leuten aus der Chipentwicklung, Halbleiterfertigung oder Embedded-Branche.

PC, Computer, Technik, Netzwerk, IT, USA, Chip, Intel, Nvidia

Grafikkarte oder Mainboard?

Hallo Leute, habe hier vor kurzem schon mal wegen dieses Problems eine Frage gestellt. Und zwar ist es so, dass ein PC beim Hochfahren manchmal 3-mal piepste, Was eigentlich bedeuten kann, dass der Ram ein Fehler hat. Hatte er nicht. Was ich aber zu dem Zeitpunkt übersehen habe, dass die Debug-LED einen VGA Fehler angezeigt hat. Also die Grafikkarte. Und es kam dann wie es kommen musste, dass der PC gar nicht mehr bootete und immer nur die 3 Pieptöne mit der roten LED bei VGA.

Also Grafikkarte raus an einem anderen PC getestet, da lief die Grafikkarte einwandfrei. Andere Grafikkarte bei mir rein, auch alles gut. Das Problem ist jetzt, wo liegt der Fehler? Ich vermute, das hat mit dem PCI-E Slot zu tun. Netzteil kann man eigentlich ausschließen. Mehrere Stromkabel für Grafikkarte probiert immer das gleiche Problem. Und als der PC vorher noch bootete, waren Stresstests für die Grafikkarte kein Problem.

Was jetzt auch Sinn ergibt, als der PC vorher noch immer wieder bootete, war es so, dass wenn er nicht bootete und ich den PC vor und wieder zurückgeschoben habe, dass er dann plötzlich wieder bootete.

Stehe nun vor der Entscheidung, ein neues Mainboard zu besorgen, oder die Grafikkarte auf die noch Garantie ist zurückzuschicken. Aber wie gesagt, an einem anderen PC lief sie ohne Probleme.

Meine Frage wäre nun, hat von euch jemand schonmal so ein Problem gehabt und wenn ja, wie habt ihr es gelöst?

PC, Computer, Grafikkarte, Mainboard

Themes für Joplin erstellen: Soll ich damit weitermachen??

Guten Tag liebe GF-Community.

Vorab: Das soll keine Werbung darstellen oder sonstiges.
Ich möchte hier auch ganz klar nichts verkaufen!

Seitdem ich gestern angefangen habe Joplin zu nutzen musste ich leider feststellen das mir die meisten Themes von Joplin einfach nicht gefallen.

Also habe ich heute morgen einfach beschlossen (weil mir danach war) bei Google nach weiteren Themes zu suchen. Leider habe ich daraufhin keine finden können die man normal installiert - also irgendeine Datei in nen Ordner hauen und fertig.
Ich habe dann einfach weitergesucht und auf einmal wurde mir irgendeine Seite von GitHub Vorgeschlagen bei der ich dann andere Informationen erhielt nach denen ich eigentlich nicht suchte aber trotzdem waren sie extrem wertvoll für alles weitere.
Ich hab dann eine Erklärung gefunden wie man Themes installiert und alles rund um das Thema "Themes" macht. Ziemlich cool!

Als nächstes habe ich mir dann ein kleinen Teil durchgelesen und dann kam mir in den Sinn ob nicht ChatGPT auch solche Themes bauen kann. Und ja ChatGPT kann.
Ich habe dann begonnen die Hilfe von ChatGPT in Anspruch (beim Erstellen meines ersten Themes wie ich es möchte im Stil von Notion) zu nehmen und ich war echt begeistert. Ich habe dann viel herumprobiert und ja der Chat-Verlauf bei ChatGPT ist wirklich extrem lang, weil ich immer wieder mehrere und kleinere Änderungen haben wollte die sich nur minimal unterscheiden.
Dann hab ich aber so richtig angefangen und erstmal den offiziellen Pfad der:
userchrome.css & userstyle.css zu suchen und diese dann anschließend gefunden, weil ich keine Lust habe die Codes ständig vom Programm aus zu ändern.

Ich muss auch mittlerweile sagen, dass ich echt eine große Menge Spaß daran gefunden habe meine eigenen Themes zu erstellen und Joplin so zu personalisieren wie ich es selbst möchte.
Ich war tatsächlich noch nie Programmierer oder so'n GitHub Dude der Ahnung von Codes/Coding hat oder hatte aber ein wenig verstehe ich schonmal wie das funzt.

Hier wäre zum Beispiel das Dark Amoled Theme im Notion Stil.
Das alles mach ich auch noch in Dark und White und je nach dem wie ich Lust habe vielleicht auch noch in paar anderen Stilen aber der Fokus liegt erstmal auf denen.

Hier noch ein kleiner Ausschnitt aus dem Hell-Matt Theme mit leichtem Grau im minimalistischen Design:

Ich bin vorher übrigens auch bei Discord auf den offiziellen Joplin Server gejoint und habe die Themes vorgestellt aber bisher kam noch keine Rückmeldung und dachte vielleicht würde ich hier welche erhalten. :D

| Frage:

Was meint ihr?
Soll ich damit weitermachen oder ist es sinnlos, weil es schon genug Themes hat?

Danke im Voraus!

Mit freundlichen Grüßen

RobinPxGF.

Bild zum Beitrag
PC, Computer, Software, Programm, CSS, Code, künstliche Intelligenz

Frage an Mathematik und theoretische Informatik: Wird es jemals sog. "starke" KI geben können?

|

Unter starker KI (sog. "Superintelligenz") versteht man KI, die in keiner Hinsicht mehr weniger leistungsfähig ist als menschliche Gehirne.

Mark Zuckerburg scheint mit seinem bisherigen KI-Chef-Entwickler unzufrieden zu sein, da der glaubt, dass es sicher noch wenigstens 5 Jahre dauern wird, bis wir erste starke KI haben.

Roger Penrose skizziert in einem seiner Bücher einen Beweis dafür, dass starke KI kein Algorithmus sein kann (ganz prinzipiell nicht).

Alle heute bekannte KI aber ist Algorithmus.

Künstliche Intelligenz erkennt Objekte. Aber weiß sie auch, was man mit ihnen tun kann? Eine aktuelle Studie zeigt, warum unser Gehirn der Technik immer noch einen entscheidenden Schritt voraus ist.

Mehr zum Thema Gesellschaft & Psychologie

Ein kurzer Blick auf eine fremde Umgebung genügt, und schon wissen wir instinktiv: Hier kann man laufen, dort müsste man klettern, und in jenem Gewässer könnte man schwimmen. Diese Fähigkeit mag selbstverständlich erscheinen, doch wie das Gehirn diese Handlungsmöglichkeiten erkennt, war bisher weitgehend unerforscht.

Ein Team der Universität Amsterdam hat nun in einer aktuellen Studie nachgewiesen, dass unser Gehirn über einzigartige Aktivierungsmuster verfügt, die es uns ermöglichen, Fortbewegungsmöglichkeiten in unserer Umgebung sofort zu erkennen – eine Fähigkeit, an der selbst fortschrittlichste KI-Systeme bisher scheitern.

Man lese

  1. https://www.gmx.net/magazine/wissen/psychologie/aspekt-menschliche-gehirn-ki-ueberlegen-41088554
  2. Geht es nach Mark Zuckerberg, sind wir künftig alle mit einer KI befreundet - Zukunft - derStandard.de › Wissen und Gesellschaft
  3. https://the-decoder.de/metas-ki-chef-nennt-generative-ki-eine-sackgasse-und-liefert-mit-v-jepa-2-die-alternative/
Computer, Mathematik, Technik, IT, Informatik, Informationstechnik, künstliche Intelligenz, LLM, Superintelligenz, ChatGPT

Meistgelesene Beiträge zum Thema Computer