Welche Veränderung muss es geben, dass Depression endlich als eine reale Krankheit erkannt wird?
Depression, und viele andere psychischen Erkrankung werden nach wie vor von vielen nicht ernst genommen. Häufig wird Depressiven vorgeworfen, einfach faul zu sein oder eine keine Disziplin zu haben. Was kann in der Gesellschaft verändert werden, dass das nicht mehr passiert und Depressionen wirklich als Krankheit anerkannt werden? Außerdem werden Depressionen häufig selbst diagnostiziert, auch wenn echte Depressionen anerkannt werden müssen, wie ich in meiner Frage schreibe, gibt es immernoch zu viele Leute die behaupten sie wären "Depri" weil sie eine vorübergehende, schwere Zeit haben. Gibt es auch hiergegen etwas, dass getan werden kann?
Vielen Dank für ihre Meinung dazu.