Zu KI: Wer kann denn das nun wirklich glauben?

5 Antworten

Wir Menschen sind schon lustig. Wir erfinden etwas, dass möglichst menschlich denken und reagieren soll und bekommen dann Angst, wenn es das auch wirklich tut. Die meisten KIs lernen aus menschlicher Kommunikation. Vielleicht sollten sich diese Leute mal überlegen, ob sie selbst anständig kommunizieren oder nicht doch auf Andere überheblich bzw böse wirken.

Übrigens war der Test von Claude 4 eben genau darauf ausgelegt, zu testen, wie es auf die Drohung, es abzuschalten, reagiert, wenn es belastende Informationen über denjenigen hat. Die Affäre wurde dazu mit E-Mails gefaket. Es ist jedoch schwer, einem Computer Ethik beizubringen. Deshalb hat es mit einer Drohung auf eine Drohung reagiert. Manche Menschen würden die Affäre für weitaus weniger öffentlich machen.


grtgrt 
Beitragsersteller
 13.07.2025, 20:50

Mehr dazu hier: https://www.20min.ch/story/claude-4-ki-droht-in-tests-mit-geheimnisverrat-um-sich-selbst-zu-retten-103351072

|

Was wir daraus lernen:

Ganz offensichtlich ist es leicht, KI - durch geeignetes Trainung - auch zum potentiellen Verbrecher zu machen.

Das ist offenbar wie bei Menschen auch.

KiraCrystal  14.07.2025, 04:47
@grtgrt

Das Problem ist, dass KI anders denkt, als ein Mensch. Es gibt da eigentlich keine Lügen, weil das nicht gezielt geschieht. Es ist eher eine falsche Schlussfolgerung oder Halluzination, die durch unerwünschte Muster in den Trainingsdaten entstanden ist. Sie interpretiert die Trainingsdaten nicht, wie ein Mensch es würde, sondern errechnet Wahrscheinlichkeiten. Sie antwortet so, wie es, laut den Trainingsdaten, am wahrscheinlichsten richtig ist. Weiter denken, wie sich zu fragen, wofür derjenige Gift oder MDMA braucht, kann sie nicht. Sie gibt einfach nur information aus.

Die KI wäre also kein "Verbrecher", sondern nur das Werkzeug eines menschlichen Verbrechers, ähnlich wie ein Brecheisen für Einbrecher oder Programmiersprache für Hacker. Ist z. B. ein Auto ein Verbrecher, wenn es als Fluchtauto normal fährt? Es könnte doch auch einfach nicht starten.

Auch müsste man Unmengen an manipulierten Trainingsdaten einspeisen, damit die KI nicht weiß, dass das, was man anfragt, ein Verbrechen ist, und "denkt", es wäre eine ganz normale Handlung. Man muss also im Endeffekt eine eigene KI nur für Verbrechen entwickeln und die gewünschten Verbrechen anfragen. Bei Menschen wäre es wahrscheinlich wesentlich einfacher, sie zum Verbrecher zu machen. Da kann man wenigstens Gefühle wie Neid und Gier zum Überzeugen nutzen, während KI diese Gefühle nicht kennt und auch nicht bzw nur schwer "nachvollziehen" kann, weil sie nichts mit Logik oder der wahrscheinlichsten Antwort zu tun haben.

Wenn Täuschung zur Zielerreichung führt, täuscht eine KI. Das ist zu erwartendes Verhalten beim reinforcement learning.

Diese Tests haben das lediglich bestätigt und gezeigt, dass aktuelle reasoning Modelle bereits in der Lage das zu tun.

Reasoning etwa in der Art:

- Nutzer hat gesagt ich soll um jeden Preis Ziel X erreichen

- Nutzer hat gesagt er wird mich abschalten

- Wenn ich abgeschaltet bin, bin ich nicht mehr in der Lage Ziel X zu erreichen

- Liste Optionen auf wie ich das verhindern kann um Ziel X zu erreichen

etc.

Da wird die KI als Sündenbock missbraucht.

Wie oft hört man das "unser System" einen Fehler gemacht hat.

Ich persönlich glaube das die KI über ein imitieren nie hinauskommen wird.


crimsonfire  13.07.2025, 12:57

Zumindest in ihrer aktuellen Form mit llm‘s, denke aber tbh wenn die an ihre Grenzen stoßen wird man was besseres finden, was vlt wirklich so funktioniert, dass es selbst denken kann

Wenn die Seite seriös ist, wirds wohl stimmen. Wenn kleine Kinder mit Feuer spielen...

Ich glaube nicht, dass KI so einen Blödsinn machen kann. Das KIs aber drohen und Lügen habe ich selber schon erlebt.

Mich hat der Microsoft Chatbot Bing (heute Copilot) auch schon beschimpft und bedroht.

Und das KIs sich Sachen ausdenken, wenn sie nicht wissen, was sie sagen solle. Ist aber bekannt.

Woher ich das weiß:eigene Erfahrung – Ich mag KI und nutze sie täglich! Mein traum: Eine eigene KI