Auch deprimiert von Deutschland?
Hallo Community,
ich bin jetzt 21, in einem halben Jahr hab ich einen Bachelor in der Tasche, nebenbei verdien ich mir mein Geld in der Filmbranche durch ein selbstgegründetes Gewerbe, mit dem ich von überall aus arbeiten kann.
Schon lange beobachte ich, dass mir Deutschland nicht gut tut. Ich komme mit den Leuten gar nicht klar, das Essen ist nicht mein Fall, die Kälte macht mir zu schaffen und auch wenn ich hier tolle Unterstützung vom Staat und einen hohen Lebensstandard habe, möchte ich das eigentlich gar nicht und schätze es auch dementsprechend nicht. Ich finde das Leben hier monoton, auch wenn ich versuche, viel dagegen zu unternehmen und auch meine Zukunft hier stelle ich mir eher grau vor.
Ich kam schon etwas um die Welt, bin ein Monat lang durch Asien ge"backpacked" und vor zwei Jahren 1 Monat durch Amerika.
Jetzt habe ich mich für ein Auslandssemester in Korea beworben und überlege mir, ob es nicht am sinnvollsten wäre, auszuwandern, da mich hier, außer der Familie, eh nichts hält.
Doch dies sind gewaltig große Fragen, die sehr schwer zu beantworten sind.
Stand jemand von euch schonmal vor der gleichen Entscheidung? Könnt ihr ein bisschen aus euren Erfahrungen erzählen?
5 Antworten
Ich kann dich sehr gut verstehen. mir geht es genauso! ich hasse das wetter, die umgebung etc. ich bin selbst am meer groß geworden so sag ich das jetzt mal. Durch das viele reisen habe ich selbst schon viele kulturen kennengelernt und auch die lebensweise, die nicht immer so top ist.
Doch was nützt dir ein guter und fester job, geld und vielleicht ein haus, wenn man sich im eigenen land unwohl fühlt. Wie mal im tv gesagt wurde: " willst du lieber mit dem BMW jeden tag ins büro fahren oder doch lieber barfuß zum strand"
So sehe ich das und plane selbst später auszuwandern.
Klar von der hygiene her allein die krankenhäuser in deutschland (europa) sind viel besser als woanders. und auch der lebensstyl ist anders.
Ich kann dich sehr gut verstehen. Liebe grüße
Deutschland ist eines der schönsten (von den Alpen bis zum Wattenmmeer) schönsten Länder, von der Vergetation, dem Klima, der Kultur, der Freiheit.
Wenn es Dir hier nicht gefällt wird es Dir woanders erst recht nicht gefallen. Deinen Charakter und Deine Probleme nimmst Du überall hin mit.
Auswandern würde ich nur wenn es beruflich zwingende Gründe gibt.
Ich habe viele Menschen im Ausland kennengelernt die aus Deutschland ausgewandert sind und ohne Ausnahme sagen die: Lieber würden wir in Deutschland leben, aber da würde es uns vom Lebensstandard nicht so gut gehen wie hier.
Ich habe schon in ca. 1/4 aller Länder der Erde gearbeitet. Irgendwie gleichen die sich alle. Besseres Klima/Wetter gleicht sich durch andere Nachteile wieder aus. Das erfährst du aber erst wenn du nicht als Tourist unterwegs bist.
Wow. Was arbeitest du denn? Und könntest du etwas genauer auf die Nachteile eingehen?
Ziemlich viel erreicht würde ich sagen. Ich denke als Außenstehender ist die Antwort klar, wenn man deinen Text so liest. In der ersten Hälfte lässt du keine Zweifel daran übrig, dass du gehen willst. Es gibt bestimmt viele Websites, Foren und Blogs von Auswanderern, vielleicht liest du dich einfach mal durch.
Außerdem denke ich, dass die wenigsten von sich behaupten können richtig zufrieden zu sein, oder meinst du nicht? Deutschland sichert einen gut ab was Schulbildung und dergleichen betrifft, aber ich weiß selbst noch nicht, ob ich mal hier bleiben will.
Wenn du auswandern willst:
Mach es!
Die erfahrungen anderer kannst du bei "Good bye Deutschland" (Vox) ansehen.
Wenn man sich irgendwo nicht (mehr) wohl fühlt, sollte man weiterziehen ... gute Reise :-)
Das ist aber Ansichtssache. Ich selbst lebe im Bayern und ich finde es ziemlich langweilig hier. Aber das kommt immer auf die Person an. Freunde aus Asien lieben es hier, weil sie die Großstadt nicht mehr sehen können. Mir geht es umgedreht.