Hey Leute eine ernsthafte Frage. Lohnt es sich noch in Deutschland zu leben?
Ich brauche euch ja aktuell nicht erklären wie es hier abgeht. Ich mache mir wirklich große Sorgen um Deutschland. Kann Deutschland in Zukunft wirtschaftlich noch mithalten? Ich bin ernsthaft am überlegen in die Schweiz auszuwandern, weil ich da ein Jobangebot habe. Allerdings bin ich ein heimattreuer Mensch und möchte ungern Deutschland verlassen aber mir kommt es so vor als würde man hier keine gute Zukunft haben.