Das Thema ist sehr sensibel, und es gibt mehrere Ebenen, die man auseinanderhalten muss.

Einerseits: KI-Chatbots wie ChatGPT können in akuten Lebenskrisen gefährlich sein, wenn sich Menschen vollständig auf sie verlassen. Sie sind nicht für psychologische Beratung oder gar Krisenintervention entwickelt. Auch wenn sie manchmal tröstend oder hilfreich wirken, fehlt ihnen Empathie im menschlichen Sinn und vor allem die professionelle Verantwortung, die Therapeuten oder Seelsorger tragen. Sie können also im schlimmsten Fall falsche, verharmlosende oder sogar verstärkende Antworten geben – und genau da liegt das Risiko.

Andererseits: Es gibt auch viele Menschen, die berichten, dass ihnen KI beim Strukturieren von Gedanken, beim Reflektieren oder beim Formulieren von Sorgen geholfen hat. KI kann also unterstützend wirken, aber sie ersetzt keine Therapie, keinen Arzt und schon gar nicht einen Krisendienst.

Die große Gefahr liegt darin, wenn Betroffene glauben, eine Maschine könne sie auffangen wie ein Mensch. Das kann zu Abhängigkeit, Fehleinschätzungen oder gefährlichen Ratschlägen führen. Umgekehrt kann KI auch ein Türöffner sein – jemand traut sich vielleicht zuerst mit einem Chatbot zu „sprechen“ und sucht danach eher echte Hilfe.

...zur Antwort