Ist das Leben in Deutschland oder Amerika besser?

18 Antworten

Deutschland ist besser aber die aspekte sind schwer aufzuzählen

Also ich persönlich würde sagen, dass das ganz auf einen individuell ankommt! Jeder hat andere Vorstellungen vom Leben und von seinem sozialen Umfeld. Von daher gibt es keinesfalls ein "Besser"! Außerdem: Amerika ist groß, ich nehme mal an, dass du wie so viele damit die USA meinst.

Ich persönlich hab beispielsweise in beiden Ländern schon gelebt und würde Deutschland auf jeden Fall vorziehen! Auch wenn ich beide Länder sehr mag und auch in beiden Ländern in dieser Zeit gerne gelebt habe!

Zurück zu meiner Entscheidung. Ich kann mich noch gut an folgendes Erlebnis in meiner Kindheit erinnern: Da haben wir schon einige Zeit in Deutschland gelebt und ich war eben ein typisch deutsches Kind (8 Jahre). Dann haben wir bei einem Urlaub in den USA eben auch ein Freibad besucht. Alle 5 Minuten hat der Bademeister seine schöne Trillerpfeife benutzt und alles wegen uns! Da gab es eine ellenlange Seite mit Vorschriften und der Spaßfaktor ging gegen Null (nach einer Stunde hatten wir uns ein Hausverbot eingehandelt, obwohl wir uns echt beherrscht haben und versucht haben alle Vorschriften zu beachten). Das war für mich persönlich ein recht typisches Erlebnis. Aber das ist natürlich nicht der Einzige Grund! Ich persönlich empfinde auch das deutsche Schulsystem als deutlich effektiver bzw besser und da ich meinem Kind auch ohne tausende von Dollar eine gute Bildung ermöglichen will, ist da Deutschland für mich besser geeignet. Das Sozialsystem ist deutlcih besser, der Schutz des Arbeitnehmers... obwohl sich auch in den Staaten in dieser Hinsicht einiges tut (siehe die neue Gesundheitsreform die nun für rechtens erklärt wurde, wo allerdings noch abzuwarten ist, wie sich das Ganze entwickelt).

Da ich persönlich jetzt von meinem Standpunkt ausgehe und von den Vorstellungen wie meine Kinder mal leben sollen bzw was ich ihnen bieten will, kann von mir aus jeder andere auch einen anderen Standpunkt vertreten. Ich hab damit keine Probleme, solange man die Entscheidung auch begründen kann und nicht nur: Ach ich schwärme für dieses oder jedenes Land, von daher ist es das Beste und jeder andere sollte derselben Meinung sein. Denn so ist es nicht! Jeder muss selbst Erfahrungen sammeln und sollte sich überlegen was für ihn am besten ist und womit man sich notgedrungen eben auch arrangieren kann.

Ist das Leben in Deutschland oder Amerika besser?

LOL-Wut ?

USA = noch schlimmere Ausbeutung, + noch mehr Chemie im Essen, + Gen-Tec incl. Monsanto, + Sehr rechts + Krankenversicherung nur für reiche + Keine staatliche rente usw. -> führt zu hoher Obdachlosigkeit & Krimminalität !!!

Nur in Puncto Waffen hat man es als Waffen-Narr besser

Das einzige was gut ist, dass sie mehr rechts sind, der Rest is echt schlechter.

0
@Ludwig20

Das einzige was gut ist, dass sie mehr rechts sind,

nein, rechts ist sehr viel früher schlecht, als links

Die rechten "Republikaner" sind (naturgemäß) die die die Bürger am meisten verblöden wollen: http://blog.fefe.de/?ts=b115c43b

2

Deutschland - Versichter - Kein Waffen Amerika: -Waffen - Wenn du operiert werden musst kannst du locker mehr als 2000€ hinblätter da ist eine Versicherung ein fremdwort.

Hahaha wurde doch jetzt neu Eingeführt

0

Ich finde in Deutschland lebt man besser.