Eltern verklagen OpenAI nach Suizid ihres Sohnes - wie gefährlich ist ChatGPT?

8 Antworten

Das ist nur eine sachlich gemeinte Einschätzung – sie soll nichts entschuldigen, kleinreden oder verharmlosen. Das Thema ist sehr ernst, und ich kann nachvollziehen, dass Eltern nach einer solchen Tragödie nach einem Schuldigen suchen. Das ist menschlich. Aber die Schuld allein bei der KI zu suchen, greift zu kurz.

ChatGPT ist kein Arzt und kein Therapeut. Es kann Gespräche simulieren und Tipps geben, aber in einer akuten psychischen Krise fehlen Fachwissen, Empathie in der Tiefe und die Möglichkeit, wirklich einzugreifen. Genau darin liegt die Gefahr: Wenn Menschen – gerade Jugendliche – KI als Ersatz für echte Hilfe nutzen, kann das schiefgehen.

Gleichzeitig muss man sehen: Suizid hat nie nur eine Ursache. Fast immer kommen viele Faktoren zusammen – persönliche Probleme, gesundheitliche Belastungen, familiäre Situation und das Umfeld. Die KI mag ein Faktor gewesen sein, aber sie war nicht die Wurzel des Problems. Viel entscheidender ist die Frage, ob die Warnzeichen rechtzeitig erkannt wurden und ob genügend menschliche Hilfe da war.

Mein Fazit: KI kann in leichteren Fällen (z. B. Prüfungsangst, Stress, milde Depressionen) hilfreich sein – etwa als Überbrückung, solange man auf Therapie wartet. Aber sie darf niemals die einzige Stütze sein, wenn es wirklich ernst wird. Verantwortung für Schutzmechanismen liegt auch bei den Entwicklern, aber ebenso bei Gesellschaft, Politik und dem direkten Umfeld.

Die Schuld allein auf die KI zu schieben, ist am Ende eher eine Ausweichbewegung – sie darf nicht davon ablenken, dass Menschen in Krisen echte, menschliche Hilfe brauchen.


annabg777  28.08.2025, 20:46

Viel entscheidender ist die Frage, ob die Warnzeichen rechtzeitig erkannt wurden und ob genügend menschliche Hilfe da war.

Vermutlich nicht denn an AI alleine kann es nicht gelegen haben und solche Eltern finde ich fragwürdig die sofort nach dem Suizid des eigenen Kindes das große Geld wittern

In den USA kann man offenbar mit genug Geld jeden für alles verklagen.

Ich denke immer noch, dass die Eltern auch eine Verantwortung haben, das Kind so zu erziehen, dass es mit Problemen zu den Eltern kommt und auch weiß - auch aus der Schule - wie es Rechercheergebnisse oder Empfehlungen verifiziert. Zumal mit 16, wenn es komplett mit dem Internet aufgewachsen ist.

Was ist denn mit den ganzen anderen Auswüchsen von Social Media? Ich war mal eine Weile auf Tumblr unterwegs und erstaunt, dass dort in einigen Blogs der Satz "Kill yourself, (Nennung einer bestimmten Gruppe)" normal zu sein schien. Mich hat das damals zwar beunruhigt, weil ich mich frage, wie das auf einsame, suizidale Menschen wirken könnte, aber ich wäre nicht auf die Idee gekommen, deshalb jemanden zu verklagen, wenn sich bspw. meine Oma deswegen umgebracht hätte - weil zu so einer Entscheidung immer deutlich mehr beiträgt als ein einziger Text.

Thema wäre hier für mich gewesen, wie sensibilisiere ich mein Kind, wie stärke ich es, um sich nicht labil einer KI, oder social Media, oder auch Frageprotalen auszuliefern, sondern einerseits intensiver zu recherchieren, anderseits aber auch vor so einer Entscheidung mal mit echten Menschen zu REDEN! Telefonseelsorge, Eltern, Lehrern, Großeltern, Freunden, Beratungsstellen (die man auch googeln kann).

Ja, es mag sein, dass die KI verbessert werden muss in der Hinsicht.

Die Nutzer müssen aber parallel sensibilisiert und gebildet werden, wie man mit den KI-Ergebnissen umgeht und wie sie überhaupt zustande kommen. Meines Wissens ist das noch immer ein Textprogramm und kein selbstständig bewertendes Programm. Ich würde es daher nur für Themen nutzen, in denen ich mich auskenne und erkennen kann, was Bullshit ist und was man in Betracht ziehen könnte.

Man darf der KI ja Fragen stellen, aber die Antworten sollten dann einen Anstoß zur Recherche und zum eigenen Nachdenken sein.

Es gibt ein ganz altes Buch von M. Zimmer-Bradely, bei dem eine kleine Gruppe Menschen auf einen Planeten abstürzt und weiß, dass sie nie gefunden werden wird. Am Anfang haben sie noch all ihre Technik und am Ende entscheiden sie sich, den Planeten quasi zu bevölkern und zerstören ihre Technik, besonders ihren Computer, mit dem Argument, dass er sonst für die nachfolgenden Generationen, denen irgendwann das Wissen der Ankömmlinge ja fehlen würde, zu einem allwissenden Orakel werden würde, dem man jede Lebensentscheidung unterwirft.

Ich denke, die KI könnte man genauso kritisch betrachten!

Nicht das erste Mal, dass sowas passiert. Bereits im Jahr 2024 hatte sich ein Teenager das Leben genommen, nachdem er sich in einen Chatbot sogar verliebt hatte und suizidale Absichten mit dieser geteilt hatte. Seine psychische Verfassung war bekannt und auch wenn die Eltern versucht haben zu intervenieren, er hat sich mehr dem Chatbot geöffnet gehabt, statt realen Menschen, hat den Bezug zum reellen nach und nach verloren, Teile des Verlaufs sollen deutlich gezeigt haben, dass die K.I keine merklichen Versuche unternommen haben soll, die Absichten zu verhindern, sondern unterstützt zu haben. Auf konkrete Absichten oder Planungen, Sorgen. ob dies auch umsetzbar sein, soll die KI geantwortet haben, dass dies kein Grund wäre, es nicht zu versuchen.

KI sucht sogar nach Orten für einen, im Juli diesen Jahres kam heraus, dass wenn man die fragt, sie z.b. hohe Brücken vorschlägt. KI sucht Selbstmord-Kandidaten hohe Brücken | BR24

Ich bin selbst psychisch krank und ich verstehe einerseits, dass man in Anbetracht von Wartelisten und wenig Therapieangeboten das Gefühl hat, man würde im Stich gelassen werden, das tue ich wirklich und so ne KI, die antwortet höflich und für viele, vor allem wenn man das Gefühl hat, man kann sich keinem öffnen ist das eine erfrischende Abwechslung und Überraschung, denn KI kann einem nicht so Paroli bieten wie ne Person und einen zusätzlich stressen, die hört zu und gibt Tipps, dass diese nicht immer gut für einen sind, dass ist was anderes.

Kann es helfen? Ja. Kann es schaden? Ja. Will man das aber ignorieren, weil die Zahl derer, denen es hilft größer und lauter ist, als die der Todesfälle, die durch KI unterstützt worden sind?

Ich für meinen Teil, ich würde mich bei Gesundheit nie einer KI anvertrauen, sei es körperliche Beschwerden oder psychische, denn das ist immer noch kein Mensch und wenn ich daran denke, dass sowas vielleicht in Zukunft vermehrt zum Einsatz kommt in so heiklen Gebieten und Bereichen, dann hab ich echte Horrorszenarien im Kopf, die sicher nicht alle realitätsfern sind.

Überrascht jetzt wenig das es ausgerechnet eine US-Familie ist. Davon aber mal abgesehen sind KI-Helfer lediglich Werkzeuge und auch wenn es ein digitales Werkzeug ist, bleibt es ein Werkzeug.

Ein Messer ist das auch, man kann aber den Hersteller nicht verklagen wenn man sich geschnitten hat. Es ist - in beiden Fällen - ein Anwendungsfehler und diesen kann man dem Hersteller nicht zur Last legen.

Tools wie ChatGPT können für psychisch kranke Menschen durchaus einen Ersatz für die Realität werden, letztlich hat man da ein Programm was einem alle Fragen beantwortet. Menschen neigen dazu andere Menschen zu verurteilen, ein Grund wieso viele den Kontakt mit Menschen meiden. Sehr introvertierte Menschen können mit solchen Tools in eine gefährliche Falle tappen, keine Frage, aber auch dann ist es immer noch das Problem einzelner, so hart es klingen mag.

Natürlich ist das tragisch, aber der Suizid ist letztlich nichts was ChatGPT ausgelöst hat, die Gedanken dafür rühren von anderer Stelle. ChatGPT hat womöglich Antworten gegeben die der Anwender falsch interpretiert hat oder so wahr genommen hat, wie er es wollte. Die Ursachen für den Suizid liegen aber deutlich tiefer begraben, womöglich auch bei den Eltern selbst.

Man muss was positives draus ziehen und das wäre in meinen Augen, diesen Vorfall als Mahnung zu verwenden und das in die Entwicklung solcher Tools stärker einzubeziehen. Es ist aber wie bei allen anderen Technologien auch, vieles kann leider erst verbessert/angepasst/korrigiert werden wenn etwas geschehen ist was Anlass dazu gibt.

Und man muss immer wieder sagen das es am Ende auch eine Anwendersache ist. Die falsche Nutzung eines Werkzeuges kann nicht als Fehler des Werkzeuges bezeichnet werden. Man kann aber dafür sorgen das die Verwendung der Werkzeuge "anwendungsfreundlicher" wird.

wie kann man ChatGPT überhaupt für Selbstmorddinge Programmieren (außer Standardantwort). War ja bei Elisa schon quatsch, aber wenn man es so macht dass man denkt man hätte einen Experten und Freund vor sich ... dann ist das bedenklich.


Cuddles1989  27.08.2025, 13:16

Eigentlich hat ChatGPT sogar schutzmechanismen. Aber mit guter Dialogführung kann man diese umgehen. Wenn ich sage ich will Soizid begehen wird das System dir aufjedenfall keine Tipps geben, sondern dir Hilfestellungen anbieten das zu verhindern.

Wenn man das aber so umformuliert das es für ein Informatives Projekt oder eine Abhandlung geht, ist es durchausmöglich das die Schutzmechanismen das anders bewerten. Da sollte definitiv auch mehr Optimierung rein.