Kann LLM überhaupt zur AGI (und zu einer Intelligenzexplosion) führen?
3 Stimmen
1 Antwort
Mit einem LLM alleine nicht, nein.
Sie haben kein echtes Verständnis, keine Autonomie und keine Weltmodelle. Für AGI bräuchte es zusätzliche Fähigkeiten wie Planung, langfristiges Gedächtnis, sensorische Integration und Zielgerichtetheit. Alles was LLMs wie ChatGPT & Co machen ist ja nichts anderes als mathematisch die Wahrscheinlichkeit des nächsten Wortes zu berechnen.
Ich tippe auf Statistik und Mustererkennung. LLMs werden ja auch mit Millionen von öffentlichen Git-Repos & Co trainiert. Sie verstehen nicht, was sie da lesen und was das für Code ist, ja. Aber bei so einer enormen Menge an Daten gibt es immer ein Muster, dem es folgen kann.
das KI in der Lage ist ein funktionierenden Programmcode nur auf Grund einer allgemein sprachlichen Anweisung zu entwickeln ohne Verständnis und Planung
Es sind ja keine rein zufälligen Worte, die da hintereinander gebrabbelt werden. So wie das System "englisch" zusammenphantasiert kann es auch "python" zusammenphantasieren. Besonders wenn es mit Millionen von code-Beispielen gefüttert ist. Da ist keine Planung dahinter. Bestenfalls eine Art gespräch wo das LLM seinen eigenen Output als Eingabe nimmt mit der Anmerkung "da muß ich noch mal kritisch nachprüfen", damit es besser wird.
Glaubst du wird es jemals zur AGI und zur Intelligenzexplosion kommen?(vielleicht mit neuromorphe Chips?)
Iiiiiirgendwann bestimmt. Wenn man sich die rasanten aktuellen Fortschritte in KI, Neurowissenschaften und Hardware anguckt. Wann und wie, wird aber sicher keiner aktuell beantworten können. Vielleicht in 50 Jahren, vielleicht in 100. Weiß niemand.
Nur zur Klarstellung: Wie ist es aber zu erklären, das KI in der Lage ist ein funktionierenden Programmcode nur auf Grund einer allgemein sprachlichen Anweisung zu entwickeln ohne Verständnis und Planung.