Ist ein Leben in Deutschland Lebenswert?

8 Antworten

Nein. In den 80er und 90er am besten, zumindest in Westdeutschland. Im Osten Deutschlands bin ich mir nicht sicher, aber ich glaube bis Mitte des letzten Jahrzehnts war es am besten, vor allem bei den unterschiedlichen Menschen, mit denen ich gesprochen habe und wenn ich mir den Kontrast zwischen 1990 und heute anschaue.

Verglichen mit 1945 geht es uns relativ gut. Verglichen mit dem Wohlstand und Lebensstandard von 1985 hingegen ist dieses Land nur noch ein Schatten seiner selbst.

KnowledgeLover2  24.05.2023, 14:12

Immer dieses Uns und wir. Wer ist das?

0

Diese Frage wird doch schon seit weit über 200 Jahren gestellt und die meisten Zeitgenossen antworten mit "Ja", auch wenn es Schwachsinn ist.

Nein leider nicht. In Deutschland wird man so behandelt, wie es dein Schulabschluss vorgibt. Hauptschüler sind nichts Wert. Abiturienten sind in Deutschland mehr Wert und wenn du noch studiert hast, steht dir alles offen. Du kannst dann ein Gott werden wie z.B. ein Lehrer, der das Schicksal von Kindern in der Hand hält. Dein Schicksal liegt nicht in Gottes Hand. Viele die nicht Deutscher Herkunft sind, haben es in Deutschland leichter. Denn wie sieht es aus, wenn Deutschland die Tore öffnet für jeden, aber in Sachen Bildung kommen diese Menschen nicht weiter. Sieht doch blöd aus von außen oder ? Spare Geld und wandere aus.

Joa - kann man so sehen. Wir haben ein recht gutes soziales Netz. Das ist unser großer Pluspunkt. Das haben andere Länder nicht so. Gibt einige, die es noch besser haben - die meisten haben ein schlechteres Netz - oder gar keins.

An Menschlichkeit mangelt es uns immer noch. Gerade im Arbeitsleben. Das ist oft recht hart und kalt. Leider.

Auch ist das Klima hier eben nicht so gut wie anderswo.