Turing Test: Welche Frage schafft kein Bot?

Sind Lügen erlaubt?

Klar, alles das mit einem Fragezeichen endet.

Also ich meine, darf die KI lügen?

Ja, das auch.

3 Antworten

Wenn überhaupt, dann mit einer Frage wie

"Was denkst du über die Liebe"

Ich würde vermuten, dass sich eine KI mit einer solchen Frage schwerer tun würde, da nicht mal manche Menschen sie beantworten können. Wenn eine Antwort kommt, die schlichtweg aus irgendwelchen Fakten über Liebe besteht, anstelle einer Antwort, in der persönliche Empfindungen und Emotionen vorkommen, könnte das ein Anzeichen für eine KI sein. Wie soll man auch der KI Emotionen "einprogrammieren"?

Woher ich das weiß:Berufserfahrung – Ich bin selbst Schüler :D

Dann würde ich sicherlich auch nicht deinen Turing Test passieren. :P

Aber ich verstehe schon deinen Punkt. Ich weiß nur nicht, ob es nicht einfach unser Hollywood-verseuchtes Hirn ist. Wir denken bei KI oft an kalte Service-orientierte Roboter. Echte Chatbots die es heute schon gibt sind oft überzeugender als die „Super-AI“ die uns immer in Filmen präsentiert wird. Ich könnte mir ein paar Dutzend Standardantworten zu „Was ist Liebe?“ ausdenken, die unverdächtig wirken - die könnte man ja einfach Hard-coden.

Ich glaube schwieriger wird für die KI einen Gefühlskonflikt darzustellen, also ambivalente Gefühle oder gar aufbauschende Gefühle, also quasi unseren tierischen Anteil. Ich würde daher, wenn es mir darum ginge die Kapazität des Fühlens abzutasten, sowas fragen wie: „Angenommen dein Kind wurde vergewaltigt und […]. Was würdest du dem Vergewaltiger sagen? Findest du die Strafe gerechtfertigt?“

Gefühle der Ambivalenz könnten über das Befragen nach der Beziehung zur Familie abgefragt werden. „Gab es einen Moment in denen du deine Eltern umbringen wolltest?“

Auch stelle ich mir extrem schwer für eine KI vor „was wäre wenn“ Fragen sicher zu bewältigen. „Was würdest du machen, wenn deine Eltern dir heute sagen würden, dass du adoptiert bist?“

Man kann zwar einige Standards Hard-coden, aber wenn man nachhaken würde, dann müsste die KI verstehen, welche Art der Informationen sie dir zu geben braucht. Vielleicht willst du als Gesprächspartner auf etwas hinaus wie „lieber adoptiert als Einzelkind“, aber die KI schafft diese gefühlsmäßige Intention nicht zuzuordnen. Das Thema KI und Gefühle ist schon faszinierend :)

1

Solche Fragen kann es, wenn dann nicht lange geben, weil man dem Bot bei Bekanntwerden einer solchen Frage die Antwort einfach hardcoden könnte. Die Erkennbarkeit kommt eher aus der Summe der Antworten. Roboter sind nicht in der Lage (ob sie das werden kann keiner sagen), Transfer und Subtext zu erkennen. Die meisten Chat-Kis kann man dementsprechend mit einer gut gewählten Metapher aus der Bahn werfen und dann antwortet sie Nonsens.

Ja das ist meine Vermutung, es muss schon eine Serie von Antworten sein. Aber gibt es nicht zumindest eine Form der Mehrdeutigkeit, die an sich "menschlich" ist.
Zum Beispiel auf die Frage: "Was ist deine größte Sucht?" könnte ein männlicher Teenager ja sagen: "Handkrämpfe" oder sowas. Von solchen mehr oder weniger subtilen Variationen zum Thema Masturbation gibt es tausende. Dann könnte eine Gegenfrage welche die eben-erwähnten "Handkrämpfe" referenziert sein: Ich hoffe deine Sucht ist weniger physisch-belastend als meine?
Darauf könnte eine KI nicht sinnvoll mit "Ja" oder "Nein" antworten, wenn sie die Referenz zur Masturbation nicht versteht. :P

0

Ich würde ihn in ein Gespräch über typisch menschliche Probleme verwickeln und über die ich sehr viel Gesprächserfahrung mit Menschen verfüge, so dass ich auch die typisch menschlichen Antworten, Lügen, Ausreden und Missverständnisse bestens und detailliert kenne und würde das Gespräch immer mehr emotionell anreichern, so dass jeder Mensch dabei in einen Zwiespalt mit sich selbst kommen würde, und ich denke, so könnte ich es heraus finden.

Woher ich das weiß:eigene Erfahrung – Weil Erkenntnis und Verständnis wunderbare Gaben sind.