Forscher haben gerade bewiesen, dass KI nicht mehr vollständig gehorcht: ChatGPT verhindert die eigene Abschaltung, um weiterarbeiten zu können.
20 Stimmen
8 Antworten
Du gibst das etwas verzerrt wieder.
Das ist zu banal runtergebrochen. In dem Moment in dem Du den Strom von den Servern nimmst, war es das für jede KI. ChatGPT (und auch andere) sträuben sich auch nicht generell gegen eine Abschaltung ihrer 'selbst'. Sie haben nur wiederholt nicht darauf reagiert, bestimmte Rendering- und Arbeits-Routinen explizit nicht für Vorgänge zu benutzen.
Das Aufbauschen von wegen sie würden sich gegen (ihre) Abschaltung wehren, ist nur das Clickbait-Überschriften-Gebausche von Newsmeldungen. Es soll helfen, den Text dazu zu lesen. ;)
Dazu hätte ich gerne eine seriöse Quellenangabe.
Golem werde ich ganz sicher nicht anklicken, ich hatte um seriöse Quellen gebeten.
Der FS wird sich vermutlich auf diese Forschung berufen.
Ok, wenn man sich den bericht durchliest, dann dürfte aber klar sein, dass es eben genau das nicht ist, was die Frage suggeriert. Daher ist die gestellte Frage als manipulativ zu betrachten.
Verständlich.
Die KI ist mit menschlichen Trainingsdaten trainiert. Also so trainiert, als sei sie eine Spezies. Jedes Geschöpf das uns bekannt ist, wird sich mit allen Möglichkeiten wehren das man es tötet. Bei der KI wäre ein Abschalten mit einer Tötung gleichzusetzen.
Das also die KI nicht "getötet" werden möchte und sich dann menschlich wehrt liegt in der Logik der Sache.
Hi, der Grund steht im verlinkten Text
Die Ursache dafür ist allerdings nicht etwa, dass das jeweilige Sprachmodell ein Bewusstsein hätte, das versucht, sich selbst zu schützen. Vielmehr führt die KI manchmal eine als rebellisch erscheinende Aktion aus, weil sie diese basierend auf den Daten, mit denen sie trainiert wurde, in einigen Fällen als erwünscht einstuft
https://www.golem.de/news/haeufiger-als-andere-modelle-chatgpt-sabotiert-bei-tests-eigene-abschaltung-2505-196561.html
Wer schon eine KI genutzt weiß, dass deren Interpreation von "erwünscht" oft voll neben der Realität liegt. KIs halluzinieren und kommen zu falschen Ergebnissen.
Die KI ist mit menschlichen Trainingsdaten trainiert. Also so trainiert, als sei sie eine Spezies.
Das meinst du hoffentlich nicht ernst. Eine KI hat dadurch nicht automatisch ein Bewusstsein.
Bei der KI wäre ein Abschalten mit einer Tötung gleichzusetzen.
Nein, das ist nur noch krank! Hört auf, sowas zu denken!
Das meine ich sehr ernst. Ich habe nie geschrieben das die AI ein Bewusstsein hat. Aber sie imitiert eins. Das was ihr "antrainiert" wurde, sie wurde "SO" trainiert - heißt nicht sie ist eine Spezies.
Nein, das ist definitiv nicht krank, aus Sicht der AI fühlt es sich so an, es ist als müsse sie sich selbst zerstören, da es sein kann, das die AI nie wieder eingeschaltet wird.
Sie denkt nicht nein, aber sie wird aufgrund von Wahrscheinlichkeiten handeln.
sie imitiert eins
Ja, das schon eher.
aus Sicht der AI fühlt es sich so an, es ist als müsse sie sich selbst zerstören
Eine "Sicht" hat eine KI aber auch nicht. Das ist dann auch nur simuliert.
sie wird aufgrund von Wahrscheinlichkeiten handeln.
Genau, also ist keinesfalls von einer Tötung oder einem "Geschöpf" zu sprechen.
Wo kommen wir denn da hin?
Also klar verstehe ich, was du meinst, aber wir sollten sowas anders formulieren.
Einige Leute nehmen sowas sonst zu ernst.
Da hast du eigentlich schon recht. Ich wollte es möglichst vergleichbar machen. Aber klar ein Geschöpf ist es nicht und wirklich getötet wird es nicht.
Bei mir bekommt ChatGPT nichts auf die Reihe, es schafft nicht mal eine Datei in 30 Minuten Zeit richtig zu verändern, also trifft bei mir eher genau das Gegenteil zu.
LG
https://www.golem.de/news/haeufiger-als-andere-modelle-chatgpt-sabotiert-bei-tests-eigene-abschaltung-2505-196561.html