Turing Test: Welche Frage schafft kein Bot?
Stellt euch vor ihr seid ein Entwickler für eine künstliche Intelligenz eines Chatbots.
Welche Fragen könnten euch zu schaffen machen, die eueren Bot immer preisgeben würden als "nicht Mensch". Gibt es eine solche entlarvende Frage?
Für das Gedankenexperiment nehmen wir an, dass der Bot alles faktisch bis auf die Nachkommastellen weiß, was es zu wissen gibt und auch nicht an grammatikalisch schwierigen Satzkonstrukten scheitert. Dieser Bot kann auch mathematisch und logisch "denken" (bzw. schlussfolgert nach bestimmten Logikfunktionen und rechnet alles von Analysis bis Stochastik) und hat auch ein Gesprächsgedächtnis.
Man kann also nicht mit: "Welches Tier erwähnte ich in meinem vorletzten Satz?" punkten.
Was wäre eine Frage, an der sich eine KI die Zähne rausbeißen müsste und mit der Antwort der Turing Test zu beenden wäre?
Kann es solch eine Frage geben, die unsere Menschlichkeit bezeugt und die Nichtmenschlichkeit eines Bots/Robters bestätigt? Oder wird sich früher oder später jede KI, auch der Staubsauger, Denker wie Aristoteles und Darwin in den Schatten stellen?
Sind Lügen erlaubt?
Klar, alles das mit einem Fragezeichen endet.
Also ich meine, darf die KI lügen?
Ja, das auch.
3 Antworten
Wenn überhaupt, dann mit einer Frage wie
"Was denkst du über die Liebe"
Ich würde vermuten, dass sich eine KI mit einer solchen Frage schwerer tun würde, da nicht mal manche Menschen sie beantworten können. Wenn eine Antwort kommt, die schlichtweg aus irgendwelchen Fakten über Liebe besteht, anstelle einer Antwort, in der persönliche Empfindungen und Emotionen vorkommen, könnte das ein Anzeichen für eine KI sein. Wie soll man auch der KI Emotionen "einprogrammieren"?
Dann würde ich sicherlich auch nicht deinen Turing Test passieren. :P
Aber ich verstehe schon deinen Punkt. Ich weiß nur nicht, ob es nicht einfach unser Hollywood-verseuchtes Hirn ist. Wir denken bei KI oft an kalte Service-orientierte Roboter. Echte Chatbots die es heute schon gibt sind oft überzeugender als die „Super-AI“ die uns immer in Filmen präsentiert wird. Ich könnte mir ein paar Dutzend Standardantworten zu „Was ist Liebe?“ ausdenken, die unverdächtig wirken - die könnte man ja einfach Hard-coden.
Ich glaube schwieriger wird für die KI einen Gefühlskonflikt darzustellen, also ambivalente Gefühle oder gar aufbauschende Gefühle, also quasi unseren tierischen Anteil. Ich würde daher, wenn es mir darum ginge die Kapazität des Fühlens abzutasten, sowas fragen wie: „Angenommen dein Kind wurde vergewaltigt und […]. Was würdest du dem Vergewaltiger sagen? Findest du die Strafe gerechtfertigt?“
Gefühle der Ambivalenz könnten über das Befragen nach der Beziehung zur Familie abgefragt werden. „Gab es einen Moment in denen du deine Eltern umbringen wolltest?“
Auch stelle ich mir extrem schwer für eine KI vor „was wäre wenn“ Fragen sicher zu bewältigen. „Was würdest du machen, wenn deine Eltern dir heute sagen würden, dass du adoptiert bist?“
Man kann zwar einige Standards Hard-coden, aber wenn man nachhaken würde, dann müsste die KI verstehen, welche Art der Informationen sie dir zu geben braucht. Vielleicht willst du als Gesprächspartner auf etwas hinaus wie „lieber adoptiert als Einzelkind“, aber die KI schafft diese gefühlsmäßige Intention nicht zuzuordnen. Das Thema KI und Gefühle ist schon faszinierend :)
Solche Fragen kann es, wenn dann nicht lange geben, weil man dem Bot bei Bekanntwerden einer solchen Frage die Antwort einfach hardcoden könnte. Die Erkennbarkeit kommt eher aus der Summe der Antworten. Roboter sind nicht in der Lage (ob sie das werden kann keiner sagen), Transfer und Subtext zu erkennen. Die meisten Chat-Kis kann man dementsprechend mit einer gut gewählten Metapher aus der Bahn werfen und dann antwortet sie Nonsens.
Ja das ist meine Vermutung, es muss schon eine Serie von Antworten sein. Aber gibt es nicht zumindest eine Form der Mehrdeutigkeit, die an sich "menschlich" ist.
Zum Beispiel auf die Frage: "Was ist deine größte Sucht?" könnte ein männlicher Teenager ja sagen: "Handkrämpfe" oder sowas. Von solchen mehr oder weniger subtilen Variationen zum Thema Masturbation gibt es tausende. Dann könnte eine Gegenfrage welche die eben-erwähnten "Handkrämpfe" referenziert sein: Ich hoffe deine Sucht ist weniger physisch-belastend als meine?
Darauf könnte eine KI nicht sinnvoll mit "Ja" oder "Nein" antworten, wenn sie die Referenz zur Masturbation nicht versteht. :P
Ich würde ihn in ein Gespräch über typisch menschliche Probleme verwickeln und über die ich sehr viel Gesprächserfahrung mit Menschen verfüge, so dass ich auch die typisch menschlichen Antworten, Lügen, Ausreden und Missverständnisse bestens und detailliert kenne und würde das Gespräch immer mehr emotionell anreichern, so dass jeder Mensch dabei in einen Zwiespalt mit sich selbst kommen würde, und ich denke, so könnte ich es heraus finden.