Findet ihr Amerika attraktiver zum Leben oder Deutschland?

5 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Jap, USA haben zwar viel negatives aber eben auch wahnsinnig viel positives.

Deutschland ganz klar, hier muss man sich nicht zu Tode schuften um über dir Runden zu kommen oder Angst haben dass man auf der Straße landet

die Gun violence finde ich unmöglich

Deutschland ist deutlich attraktiver. Nur wer die Verhältnisse in den USA nicht kennt, wird etwas anderes behaupten

Nein, auf keinen Fall. Urlaub machen ist ok. Dort leben und arbeiten - nein.

Niemals USA,nur EU und sichere Land ist immer für mich BRD.

Woher ich das weiß:eigene Erfahrung