Was ist in Deutschland besser als in anderen Ländern der Erde?

7 Antworten

Türkei - Hier in D bin ich ein freier Mensch und kann sagen was ich will. Der Lebensstandart ist hier höher und auch die Gesundheitsversorgung ist wesentlich besser.

Japan - Der Lerndruck auf die Schüler ist in Japan sehr hoch, dadurch ist die Selbstmordrate bei den Jugendlichen auch sehr hoch gegenüber in D.

USA - Da vergleiche ich das Waffenrecht mit unserem, hier darf zum Glück nicht jeder eine Waffe besitzen, sonst gäbe es hier noch mehr Tote. Hinzu kommt das Gesundheitswesen welches bei uns deutlich besser ist als in der USA

Deutschland ist relativ sicher und man hat einen vergleichsweise hohen Lebensstandard.

Landschaftlich hat Deutschland aber nicht so viel zu bieten und auch das Essen ist in vielen anderen Ländern besser. Nur meine Meinung.

Alle Länder in allen Punkten einander gegenüber zu stellen, würde jetzt wohl den Rahmen sprengen, aber spontan fällt mir zu jedem dieser Länder eine Sache ein, wo Deutschland besser ist:

Deutschland hat weniger Erdbeben als die Türkei und offenbar eine weniger korrupte Bauwirtschaft.

Deutschland hat eine geringere Selbstmordrate als Japan, da die deutsche Kultur keinen so extremen Leistungsdruck erzeugt, wie die japanische.

Deutschland hat eine bessere allgemeine Gesundheitsvorsorge als die USA und Obst und Gemüse sowie gesunde Lebensmittel sind hier zahlreicher und günstiger verfügbar.

Natürlich gibt es auch Bereiche, wo die genannten Länder besser sind als Deutschland, aber das war ja nicht die Frage.


SuFaCo04  23.03.2023, 12:35

Sehr gute Antwort

2

Mit Japan kenne ich mich wenig aus.

Demokratie, Medien, soziale Gerechtigkeit, Polizei und innere Sicherheit; da hängen wir die USA und Türkei deutlich ab.

Unsere Versorgung im Krankheitsfall. Die Urlaubsregelung. Die sozialen Absicherungen.