Ich (m, 20) merke immer mehr, dass Deutschland mich kaputtmacht – vor allem im Winter.
Ich bin jemand, der Sonne, Wärme, Meer und Leichtigkeit liebt. In Deutschland habe ich jedes Jahr ab September mit Winterdepressionen zu kämpfen: keine Sonne, ständig grau, kalt – ich funktioniere dann nur noch. Ich schlafe extrem viel, habe kaum Energie, keine Lebensfreude. Es ist, als würde mein Leben für ein halbes Jahr stillstehen.
Letztes Jahr war ich in Spanien – und jetzt gerade wieder. Ich merke einfach: Dort geht es mir besser. Ich lebe wieder richtig. Das Wetter, die Menschen, das Lebensgefühl – das ist das, was ich wirklich brauche. Mein bester Kumpel sein Vater lebt dort, und meint, es war die beste Entscheidung seines Lebens. Er könnte mir sogar beruflich den Einstieg erleichtern.
Ich frage mich: Soll ich einfach den Schritt wagen und auswandern?
Ich bin jung. Ich weiß, Familie und Freunde würden mir fehlen – aber in Deutschland geht es mir psychisch immer schlechter. Ich habe das Gefühl, mein Leben hier passt nicht zu mir.
Was meint ihr: Ist das zu impulsiv gedacht? Oder ist gerade jetzt der Moment, in dem ich etwas verändern muss?
Mich hält hier einfach nichts mehr in Deutschland, ich weis nicht wie ich das beschreiben soll.