Warum wollen so viele Deutsche in die USA auswandern?

... komplette Frage anzeigen

5 Antworten

Hat verschiedene Gründe.

Für viele ist es tatsächlich diese Abwechslung usw. Es ist schon was anderes, ob man in einer kleinen Stadt in DE wohnt, oder zwischen unendlichen Wolkenkratzern in den USA.

Es sind eigentlich dann die Gründe, warum Leute in den USA auch oft Urlaub machen. Einfach mal was ganz neues erleben etc. 

Aber viele wollen auch wegen einem Job. Viele Jobs gibt es in den USA, aber in Deutschland nicht. Oft sind die Jobs auch dort einfach ganz anders. 

Vergleich alleine mal den Beruf Polizist. Das ist wirklich was ganz anderes, ob du das nun in Deutschland oder Amerika machst. Vor allem gibt es dort auch noch viel mehr Auswahl gibt. Nicht nur Streifenpolizist, Kripo, Bundespolizei... 

In den USA gibt es so unendliche Einheiten, von der Steife bis zum SWAT, SRT. Oder auch Besonderheiten wie in Arizona mit den Sherrif's...

In Amerika schießen sie alle sofort, in Deutschland wird gefühlt 1 mal im Jahr geschossen. Alles...

Das ist was ganz anderes. Da gibt es viele solcher Gründe.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von HighwayPretzel
27.12.2015, 16:16

Oder auch Besonderheiten wie in Arizona mit den Sherrif's

und warum ist das gerade in AZ etwas besonderes?

0

Weil sie sich ein besseres Leben in den USA erwarten. 

Die genauen Gründe sind wahrscheinlich individuell unterschiedlich.

Sooo viele wandern aber auch nicht aus.

Antwort bewerten Vielen Dank für Deine Bewertung

naja, usa ist schon sehr sehr kulturell und international geprägt... das reizt natürlich einige leute... allerdings auch nur die, die wirklich interesse haben sich in einem anderen land niederzulassen... jedoch ist es nicht so, dass alle auswanderer nach usa wandern... das kommt dir sicherlich nur so vor, da es als ein weit verbreiteter ort bekannt ist... 

wenn du auswandern möchtest irgendwann mal, dann würde ich dir vorschlagen, al eher ein interessanteres land zu nehmen... in die usa reisen kannst du immer... 

Antwort bewerten Vielen Dank für Deine Bewertung

Ich denke, dass in Deutschland die USA einfach sehr positiv dargestellt wird wie z.b. Hollywood, Swimming pool im Garten, echt große Wolkenkratzer überall etc. Das kaufen halt viele Deutsche ab und denken, dass sie alle dort superreich werden und in Hollywood Filmen mitmachen usw.

Aber es gibt auch dort ärmere Gegenden, die kaum in Deutschland gezeigt werden.

Antwort bewerten Vielen Dank für Deine Bewertung

Das fing schon im 18. Jahrhundert an dass Deutsche nach Amerika gingen.

Woher kaemen sonst die Deutschen Staedtenamen wie Dresden, Hamburg, Frankfurt, Bremen, Braunfels usw.. in Amerika.

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?