Würdet ihr aus Deutschland auswandern wollen und warum?
Vielen Menschen entscheiden sich aufgrund des Wetters/Klimas, gerade im Herst/Winter in mediterranere Länder auszuwandern (Portugal, Spanien).
Andere wanderen wegen des hohen Lebensstandard nach Skandinavien bzw. Nordeuropa (Dänemark, Island, Schweden, Norwegen, Finnland) aus.
Würdet ihr das auch wollen? Zumal Deutschland sich weder gesellschaftlich, noch wirtschaftlich und politisch zum Positiven entwickelt.