In welchem Land hat man es besser, Amerika oder Deutschland?

Das Ergebnis basiert auf 16 Abstimmungen

Deutschland 🇩🇪 69%
Amerika 🇺🇸 31%

6 Antworten

Deutschland 🇩🇪

ich tippe mal auf deutschland; die regelwerke in den usa bezogen auf frauenrechte, trans/schwule oder abtreibungen sind momentan so gedankenlos, als beispiel kann man sich in so manchen staaten in fällen von brustkrebs als frau nichtmal die brüste ab-operieren lassen weil die das als trans op gelten lassen (die sind extremst konservativ und lgbt feindlich) zudem werden da noch minderjährige mädchen an erwachsene männer verhairetet und fälle wo minderjährige nach einer vergewaltigung nicht abtreiben dürfen nur um mal so beispiele zu nennen :)

klare antwort, falls es hier noch schlimmer wird gehts ab zur niederlande oder in die schweiz

Woher ich das weiß:Recherche
Amerika 🇺🇸

Es kommt natürlich darauf an wo man lebt da die USA riesig ist und es natürlich Orte gibt die nicht so gut sind! Aber ich denke in den USA gibt es mehr Orte mit besserer Lebensqualität als in Deutschland

Woher ich das weiß:eigene Erfahrung – Ich will nach New York oder Los Angeles auswandern

Kann man pauschal nicht beantworten. Kommt immer auf die Ziele und die Lebensumstände an.

Amerika 🇺🇸

Vorausgesetzt du hast ordentlich Geld und bist am richtigen Ort in den USA, dann ist die Lebensqualität eine ganz andere.

Woher ich das weiß:eigene Erfahrung – Ich bin schon viel rumgekommen

Hast du den richtigen Beruf, hast du in den USA unglaubliche Moeglichkeiten, dein Wissen und Koennen einzubringen. Eine fester, sehr gut bezahlter Job in den USA steht dann oft einem weit unterbezahlten befristeten Job ohne grosse Perspektive gegenueber.