Frage an Mathematik und theoretische Informatik: Wird es jemals sog. "starke" KI geben können?
|
Unter starker KI (sog. "Superintelligenz") versteht man KI, die in keiner Hinsicht mehr weniger leistungsfähig ist als menschliche Gehirne.
Mark Zuckerburg scheint mit seinem bisherigen KI-Chef-Entwickler unzufrieden zu sein, da der glaubt, dass es sicher noch wenigstens 5 Jahre dauern wird, bis wir erste starke KI haben.
Roger Penrose skizziert in einem seiner Bücher einen Beweis dafür, dass starke KI kein Algorithmus sein kann (ganz prinzipiell nicht).
Alle heute bekannte KI aber ist Algorithmus.
Künstliche Intelligenz erkennt Objekte. Aber weiß sie auch, was man mit ihnen tun kann? Eine aktuelle Studie zeigt, warum unser Gehirn der Technik immer noch einen entscheidenden Schritt voraus ist.
Mehr zum Thema Gesellschaft & Psychologie
Ein kurzer Blick auf eine fremde Umgebung genügt, und schon wissen wir instinktiv: Hier kann man laufen, dort müsste man klettern, und in jenem Gewässer könnte man schwimmen. Diese Fähigkeit mag selbstverständlich erscheinen, doch wie das Gehirn diese Handlungsmöglichkeiten erkennt, war bisher weitgehend unerforscht.
Ein Team der Universität Amsterdam hat nun in einer aktuellen Studie nachgewiesen, dass unser Gehirn über einzigartige Aktivierungsmuster verfügt, die es uns ermöglichen, Fortbewegungsmöglichkeiten in unserer Umgebung sofort zu erkennen – eine Fähigkeit, an der selbst fortschrittlichste KI-Systeme bisher scheitern.
Man lese
- https://www.gmx.net/magazine/wissen/psychologie/aspekt-menschliche-gehirn-ki-ueberlegen-41088554
- Geht es nach Mark Zuckerberg, sind wir künftig alle mit einer KI befreundet - Zukunft - derStandard.de › Wissen und Gesellschaft
- https://the-decoder.de/metas-ki-chef-nennt-generative-ki-eine-sackgasse-und-liefert-mit-v-jepa-2-die-alternative/
3 Antworten
Meiner Meinung nach kann eine KI wie sie in derzeitigen Ansätzen verfolgt wird nicht aus den Grenzen einer Turing-Maschine heraus springen. Und dieser Turing-Maschine wiederum legt die theoretische Informatik bekannte Grenzen auf, z.B. die Lösung des Halteproblems. Insgesamt wird eine Turing-Maschine nie in der Lage sein aus ihrem eigenen Kontext "heraus" zu springen und sich dieses "Aussens" überhaupt bewußt zu werden. Ob es andere Möglichkeiten gibt eine KI zu implementieren ist mir nicht bekannt. Ebenso ist mir nicht bekannt ob das menschliche Gehirn AUCH auf eine Turingmaschine abgebildet werden kann (wie es derzeit für nahezu alle Computersysteme der Fall ist). Wenn dies der Fall wäre wäre es am Ende nur eine Frage der Rechenkapazität. Ich halte aber das menschliche Gehirn durch die Vielzeit der Schleifen die eingebaut sind und die nicht alle deterministisch sind für eben komplexer als eine Turingmaschine. Dann wäre das was du fragst nicht möglich. Aber das ist persönliche Meinung.
Die Antwort ist daher schlicht: Wir wissen es nicht.
Aber das ist ja gerade meine Argumentation (derzeitige KI Modelle sind durch Turingmaschinen beschränkt; das Gehirn ist vermutlich keine Turingmaschine). Das schließt aber nicht aus dass wir eines Tages in der Lage sind Computer zu bauen die eben keine Turingmaschinen sind. Mit der Von-Neumann Architektur wird das nicht gehen, es müssen einfach Schleifen und nichtdeterministische Rückkopplungen eingebaut werden.
In der Science of Discworld Serie habe ich mal von einem solchen System gelesen, welches den Auftrag hatte seinen Output zu optimieren. Das war schon ganz schön spannend.
Penrose, Du und ich sind da offenbar einer Meinung.
Zweifel kommen mir nur dann, wenn ich mir vor Augen führe, dass kreatives Denken ja wohl vor allem auf hoher Assoziationsfähigkeit beruht, die wiederum doch wohl ganz wesentlich mit dem Erkennen von Mustern zu tun hat.
Künstliche Intelligenz erkennt Objekte. Aber weiß sie auch, was man mit ihnen tun kann?
Ganz so ist es nicht und derlei „Entscheidungen” durch zusätzliches Wissen erreicht werden. Eine KI fungiert in manchen Setups lediglich als Parser und man durch weitere Technologien sowie genauere Instruktionen gewünschte Ergebnisse erzielt.
Sei es über Retrieval-Augmented Generation (RAG), Model Context Protocol (MCP) sowie Computer Vision, Reinforcement Learning, Sensorfusion und einiges mehr. Es gibt nicht eine KI in Form eines einzelnen Models, sondern im wesentlichen eine Vielzahl an Modellen samt Tools mit unterschiedlichen Stärken und Schwächen.
Gleiches oder ähnliches gilt für Reasoning-fähige sowie Self-Reflective LLMs in Kombination mit den zuvor genannten Techniken über Agenten und Protokolle. Die Informationen die in einem LLM stecken sind mehr als Fundament zu verstehen. Der Rest kommt durch das Setup in Form von Echtzeitdaten, Tools und Instruktionen.
Schau dir Unternehmen wie Airobotics oder Kodiak Robotics an, die zeigen bereits dass autonome Entscheidungen unter bestimmten Rahmenbedingungen nicht nur möglich, sondern auch zuverlässig sind. Ansonsten Anbieter und Werkzeuge wie Browserbase und Browseruse mit n8n, Agent-Zero, Zapier und dutzend anderen.
Ich kann schon jetzt sehr strikte Vorgaben machen oder selbst diese über KI erstellt werden, nach welchem Schema Aufgaben (Tasks) bearbeitet werden sollen. Es ist bei KI-getriebenen Systemen daher immer eine Frage der Implementierung. Es gibt zwar gewisse Grenzen, die jedoch teils mit einem Set aus Tools überwunden werden.
Bis eine „echte” KI alles gleichermaßen kann, ist noch ein langer Weg. Daher wird es auch weiterhin ein diverser Tech-Stack sein, um solche Aufgaben umzusetzen. Da kann ein komplexeres System mit unterschiedlichen Schnittstellen mehr als der Mensch, während es Bereiche oder Teilbereiche gibt, in denen es nicht funktioniert.
Die Frage lässt sich relativ leicht beantworten: Das kann dir niemand sagen. Egal ob Mathematiker oder nicht. Im Augenblick herrscht kein Konsens darüber, ob und wann so eine KI möglich ist.
Du hättest recht, wenn meine Frage gewesen wäre
Wird es jemals sog. "starke" KI geben?
Tatsächlich gefragt habe ich aber:
Wird es jemals sog. "starke" KI geben können?
Penrose (ein Nobelpreisträger) glaubt, sie mit NEIN beantworten zu können (hier sein Argument: https://welt-verstehen/0-205-Intelligenz--echte-und-kunstliche.htm ).
Penrose glaubt nachgewiesen zu haben, dass unser Gehirn (auch) nicht-algorithmisch arbeitet. Sein Beweis scheint schlüssig zu sein, habe ihn (in meiner eigenen Formulierung) hier aufgeschrieben:
https://welt-verstehen/0-205-Intelligenz--echte-und-kunstliche.htm