Stimmt es das wir nicht wirklich begreifen wie Künstliche Intelligenz funktioniert?
Nur das wir verstehen das sie funktioniert, aber nicht wie sie funktioniert...
13 Stimmen
9 Antworten
Das Grundprinzip versteht man natürlich.
Aber wie die KI dann das Prinzip umsetzt, ist nicht wirklich so verständlich. Es ist mehr oder weniger einfach wie eine 'Black Box', das so trainiert wird, bis es irgendwann die gewünschten Outputs erzeugt...
Nur das wir verstehen das sie funktioniert, aber nicht wie sie funktioniert...
Das ist nur zur hälfte richtig.
Das Prinzip warum Ki funktioniert kennen wir und können es auch an simpleren Beispielen erklären.
Aber als Chat GPT frisch rausgekommen war waren selbst die Hersteller überrascht wie Leistungsfähig das Programm ist und konnten sich diese Leistung nicht wirklich erklären.
Im Prinzip sagt ein Programm wie Chat vorher welches der nächste Buchstabe sein müsste um eine (wahrscheinlich) richtige Antwort zu fabrizieren. Das dann nach erreichen eines "kippunktes" auf einmal nicht nur worte sondern sätze absätze und überhaupt eine Rethorik auftauchte die man auch für Menschlich halten könnte DAS war die große überraschung.
Die Technik hinter dem Algorithmus ist bekannt, aber selbst die Entwickler und Neurowissenschaftler verstehen nicht, warum der Algorithmus so gute Antworten gibt, also so nah an dem menschlichen Ergebnis ist. Das ist in der Tat ein Rätsel.
Und gefährlich wird es dann, wenn der Algorithmus sich autonome weiterentwickeln (darf). Denn wenn wir dann nicht mal mehr den Algorithmus verstehen, weil er komplexer ist als wir es begreifen können, verstehen wir garnichts mehr was mit KI vor sich geht.
Spätestens dann fäng an sich KI zu verselbständigen. Dann kann man nur noch den Stecker ziehen oder shit happens sagen und weitermachen. Zum guten oder schlechten.
Aktuell sind wir aber noch in Phase 1, uns freuen, dass "KI" so menschennahe Antworten gibt, aber nicht genau verstehen warum.
Japp, genau so habe ich es weitergeführt.
Das Problem ist, dass die derzeitige (noch stupide) KI aber verwendet werden kann um KI selbst weiterzuentwickeln, das wird also jetzt alles beschleunigt, bis zu dem Punkt wo wir wirklich KI Algorithmen haben die in unsere Infrastrukturen eingebunden werden, die sich selbst enwickeln dürfen.
Was nicht heißt, dass es sowas unter Laborbedingungen schon gab. Ich erinnere mich an ein Projekt, wo die KI ihr eigenes Belohnungssystem veruscht hat zu manipulieren, damit sie leichter an die Belohnung kommt. Das wurde ihr dann verboten, danach hat sie versucht das Belohnungssystem zu manipulieren ohne dass man es merkt... sie hat also quasi sich selbst beigebracht zu Schummeln :)
Jein. Wir verstehen natürlich die Technologie, die wir da gebaut haben. Und wir können auch aufwendig die Entscheidungswege zurückverfolgen oder visualisieren, zumindest bei einfacheren Modellen.
Am Ende sind aber eben so viele Daten enthalten und so viele Schichten dazwischen, dass dir nun ohne Aufwand keiner sagen kann, warum diese konkrete Antwort aus einem LLM kommt oder dieses konkrete Bild aus Stable Diffusion oder warum ein Bild als dies oder jenes Tier erkannt wird.
Wir probieren sowas gerne zu vermenschlichen und stellen uns z.B. bei einer KI, die Bilder erkennen muss bzw. Tiere vor, dass sie eine Schicht hat für die Größe, eine Entscheidung ist, ob das Tier Fell hat oder nicht, die Farbe, die Position der Augen, die Proportionen usw.
In der Realität funktioniert die KI aber nicht so und am Ende kann eine Schicht linke Ohren + Schwänze erkennen, eine andere nur die Rundung des Kopfs oben, eine andere ein Stück der Wange und die linke Pfote, eine andere kümmert sich gar nicht um das Tier auf dem Bild, sondern erkennt den Untergrund oder ein Objekt im Hintergrund etc. Es sind einfach umgruppierte statistische Zusammenhänge, ohne Verständnis dahinter.
Aufgefallen war das damals z.B. stark als man so Sachen gemacht hat wie Hunde und Wölfe voneinander unterscheiden. Das hat mit den Testbildern super geklappt, in der Realität aber so gut wie gar nicht. Bei der Analyse hat man festgestellt, dass bei den Trainingsdaten so gut wie alle Bilder mit Wölfen in einer Schneelandschaft waren.
Die KI hat also nicht Hunde oder Wölfe entdeckt, sondern Tiere mit Schnee im Hintergrund oder ohne. Die mit Schnee im Hintergrund hat sie Wolf genannt, die anderen Hund, wie es die Trainingsdaten gelehrt haben.
Wir verstehen natürlich wie KI funktioniert, wir verstehen eher nicht, warum sie (insbesondere bei fehlendem Determinismus) ausgerechnet zu diesem (brauchbaren) Ergebnis kommt.
Das hat aber damit zu tun, daß durch forgesetztes Training und Anpassung das Verhalten einem steten Wandel unterliegt.
Analyse von nichtlinearen und nicht statischen Systemen ist aber ganz allgemein ziemlich schwierig.
Da scheinst Du aber weit in die Zukunft zu blicken, denn im Moment sucht KI nur nach bereits veröffentlichten (im Netz) Daten. Analysiert diese und antwortet mit einer Lösung die den bekannten gelösten Fällen am besten entspricht.
Nichts selbst Erdachtes!