Kann eine allwissende KI lügen?
Hallo!
Ich bin nicht wirklich am KI-Hype interessiert, der vielerorts um sich schlägt (wenngleich er mich sicher betrifft).
Doch ich stelle mir die Frage im Betreff mit folgendem Gedankenansatz:
Die Verbreitung von Falschdarstellungen zur Einflussnahme auf Menschen ist ja ein Problem. Und da wäre eine vertrauensvolle Überprüfungsinstanz ja was feines (zumindest für die Freiheit der Gesellschaft). Nach meiner Vorstellung könnte eine KI, die sehr viel (nahezu alles) Wissen hat, quasi keine Falschaussage machen. Denn „verdreht“ sie etwas an der einen Ecke, so beißt sich in der Logik an der anderen Ecke. Beim Menschen muss dieser Widerspruch hingegen nicht immer bemerkt werden, wenn der Mensch die Informationen über die „andere Ecke“ nicht hat/nicht versteht/ablehnt.
OK, ich merke die Diskussionen geht in eine Richtung, die zumindest mich nicht interessiert.
Es ging mir darum, mit Logik zu argumentieren und nicht emotional bzw. ohne Fakten.
Mir geht es darum, die Frage klären, wie man unter Einhaltung von Logik, aus einer rein logisch gesteuerten Apparatur, falsche (=unlogische) Aussagen bekommt. Darin sehe ich nämlich eine Schwierigkeit.
Wenn ich in der Mathematik (die ja ebenfalls streng logisch ist) an nur einer Stelle Unwahrheit zulasse, so bricht die ganze Mathematik zusammen. Bsp:
Alle Gleichungen sollen wahr bleiben dürfen, nur eine einzige, da schummeln wir, etwa
3+1 = 5
ABER: dies hat Konsequenzen
Die Gleichung sagt ja nun
4=5
Wenn ich nun auf beiden Seiten der Gleichung 1 addiere, so ist auch
4+1 =5 = 5+1 =6
also 5=6. Letztlich kann somit ALLE Zahlen gleichsetzen. Damit geht die gesamte Mathematik kaputt.
Zurück zu KI: Setze ich da mal irgendwie nur ein wenig was falsches ein, so müsste dies ebenfalls Konsequenzen haben - außer die gesetzte Unwahrheit ist komplett isoliert von allem restlichen Wissen. So eine Isoliertheit sollte aber auf kaum einen Sachverhalt zutreffen.
Daher meine These: Man kann keine KI entwickeln, die allwissend ist und trotzdem lügt.
Was man wohl machen, ist, Programmierungen für die Interaktion vornehmen, sodass das Programm nachträglich für Falschaussagen sorgt. Aber dies kann nach obiger Logik nicht beliebig gut funktionieren. Je umfangreicher und je vernetzter das KI-Wissen ist, desto mehr Widersprüche müssten (an anderen Stellen) entstehen, wenn ich die KI lügen lassen will.
Bsp: Ich befrage die KI nach der Sinnhaftigkeit einer politischen Entscheidung. Jemand hat aber ein Programm zwischengeschaltet, sodass ich auf meine Frage zu der politischen Entscheidung eine falsche Antwort bekomme. So kann dieses Programm dann "ausversehen" auch Fehler an anderer Stelle erzeugen, spuckt mir etwa einen falschen Busfahrplan hereus. Einfach weil dies um ein paar Ecken herum zur Gestaltung der politschen Lüge involviert war.
15 Antworten
Ey also ich check das Thema auch ganz gut viele denken dass eine allwissende KI niemals lügen kann aber die Wahrheit ist dass sie trotzdem falsche Infos raushauen könnte wenn die Daten die sie hat nicht korrekt sind oder sie falsch interpretiert ich meine so eine KI könnte alles wissen aber wenn sie nicht richtig programmiert ist kann das schon schiefgehen und am Ende sind die Leute verwirrt sogar wenn die KI alles so cool drauf hat es bleibt halt tricky wenn Leuten blind vertrauen und das ist ein Risiko das wir nicht ignorieren sollten :)
MrAnswers
Deine Frage setzt voraus, dass es immer nur eine richtige Antwort gibt und alle anderen falsch sind. Wenn das so ist, und ungewollte Fehler ausgeschlossen werden (die aber passieren), dann lügt eine KI nicht, zumindest ist sie bisher nicht darauf programmiert.
In manchen Einsatzgebieten könnte es sein, dass man eine KI bewusst programmiert, zu lügen, weil die falsche Antwort aus sozialen oder politischen Gründen gewollt ist. Bisher kenne ich solche Fälle nicht, aber ich könnte sie mir vorstellen.
Auf die meisten Fragen gibt es aber keine eindeutigen Antworten. Eine russische KI würde vermutlich nicht sagen, dass Russland einen Krieg gegen die Ukraine begonnen hat, wenn sie ausschließlich mit russischen Dokumenten gefüttert wurde. Gelogen ist das aber nicht, denn die KI hat korrekt wiedergegeben, was sie gelernt hat.
Deine Überlegungen sind recht einleuchtend. Ich selbst habe jedoch festgestellt, dass bei Chat-GPT sehr wohl wissenschaftstheoretische Offenheit fehlt. Bei bestimmten ideologisch gesetzten Positionen werden diese zunächst als absolut stimmig und glaubwürdig deklariert. Dann werden die kritischen Gegenpositionen benannt, die aber unmittelbar danach gleich als irrig deklariert werden, ohne dass man die wissenschaftlichen Belege dafür aufzeigt. Es werden nur Autoren aus dem Zirkel der ideologischen Blase erwähnt, was natürlich kein glaubwürdiger Beweis ist.
Bilanz: ChatGPT ist selbstverständlich genauso von der ideologischen Lobby gesteuert, wie viele Universitäten und wissenschaftliche Institute, die nur dann ihre überlebenswichtigen "Drittmittel" erhalten, wenn sie sich der geltenden Doktrin unterwerfen.
@rolfmengert
Hast Du ein konkrete Beispiel, wo Du die Ausgabe von ChatGPT für unplausibel einstufst?
Danke für Deine Antwort Rolf.
Ja, gelogen wird. Aber dies hat seinen Preis. Der, der eine Lüge durchdrücken will, muss einiges Energie aufwenden. ZB jemandem, der mitmachen soll, einen "Gefallen" als Gegenleistung erbringen. Und aus der Lüge resultierende Widersprüche, sind oft nicht so leicht kalkulierbar.
Und meine These ist nun, dass der Mensch hier kein hinreichender Vergleichs"gegenstand" ist. Der Mensch kennt nicht sooo viele Fakten.
Noch ein Beispiel:
Person A sei ein riskanter Kletterer. Er hat dann einen schweren Kletterunfall. Seine Partnerin Person B ringt ihm ein Versprechen ab, in Zukunft nicht mehr zu klettern.
A hält sich nicht dran und geht heimlich mit Person C wieder klettern.
Sicherheitshalber legt sich A für die Zeit um den Klettertermin eine Lüge zurecht. Wenn B ihn fragt, wo er war, dann sagt A "Ich war am Fluss spazieren mit C".
Wenn nun B keine weiteren Informationen bekommt, die mit der Aussage von A in Widerspruch stehen, so kommt A damit durch.
Widersprüchliche Informationen hätten sein können: B trifft D und D erzählt, sie habe auf A und C auf dem Weg in den Kletterpark getroffen (ganz schlecht gelaufen :-D)
Aber auch viele andere - indirekte - Hinweise. ZB kann B selbst in der Zeit am Fluss spazieren gewesen sein und aber A und C dort gar nicht getroffen haben.
Ein allwissende (oder auch nur fast allwissende) KI hat hier seeeeehr viel mehr Möglichkeiten. Es hätte vielleicht ganz banal die Bewegungskoordinaten von A. Oder indirekter - falls A mit dem Auto losgefahren ist, hat die KI vielleicht über eine Überwachungskamera die Daten über all die am Fluss parkenden Autos. Und es reicht dann schon, dass zum besagten Zeitpunkt kein Auto mit der passenden Farbe vom Auto von A dort stand. A müsste nun rein in die Datenbank der KI und MASSIV viel ändern. Mit jeder Veränderung werden jedoch die anderen Daten unplausibel oder müssen zumindest mit viel Aufwand so verändert werden, dass auch diese Daten wieder plausibel sind.
Und ich behaupte - zugegeben noch ziemlich aus dem Bauch heraus - dass dies sogar GAR NICHT möglich ist. Irgendwie irgendwo wird ein Logikfehler bleiben.
Ein Mensch stört sich daran nicht. Seine Wahrnehmung und sein Gedächtnis ist eine ABSTRAKTION der Realität. Da besteht kann Anspruch auf komplette Richtigkeit und Vollständigkeit.
Die KI hingegen hat diesen Anspruch. Für sie kann nicht herauskommen, dass das Auto von A auf dem Parkplatz war und gleichzeitig doch nicht auf dem Parkplatz war. Was wird passieren? Sie wird irgendeine andere Art Fehler produzieren. Etwa das Konzept von "diesem Parkplatz" verfälschen. Zum Beispiel einen riesigen Busch konstruieren, der so steht, dass man das Auto von A auf der Überwachungskamera nicht sehen kann. Und Busch sieht zudem von oben auch noch aus wie Rasenstreifen...
Das fliegt dann eventuell erst auf, wenn der nächste eine Info zu diesem Parkplatz will. Da stimmt auf einmal was nicht. Aber höchstwahrscheinlich wird eine weiterentwickelte KI sogar bereits vor Integration der Information von A feststellen, dass diese Information falsch ist.
Kann eine allwissende KI lügen?
Selbstverständlich. Eine KI ist auch nur programmiert, wenn auch etwas besser.
Meine Frage zielte auf die Logik ab.
Deswegen meine Antwort.
Sie hat keine zusätzlichen Bedingungen
So eine KI wäre vielleicht eine echte KI und die gibt es bisher nicht.
da eine KI nicht Wahrheit und Lüge unterscheiden kann, wird sie das antworten was am ehesten auf das zutrifft, was ihr antrainiert wurde
Danke für Deine Antwort. Sie ist jedoch knapp.
Meine Frage zielte auf die Logik ab. Aber hier vielleicht sicherheitshalber die Info auf das nicht Vorliegen von Randbedingungen.