Ist das Leben in USA besser als in Deutschland?

5 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Ja und in den USA ist die medizinische Versorgung auch nur für die Menschen gut, die eine gute Versicherung haben und in der Nähe von Zentren leben, in denen Ärzte behandeln.

Für alle anderen sind die USA sicherlich aufgrund dieses Aspektes schlechter als jedes Bundesland in Deutschland.

Woher ich das weiß:eigene Erfahrung
stufix2000  28.11.2023, 16:01

Danke für den Stern*

1
OLDO1975  12.01.2024, 21:01

Da müsste die USA dringend nachbessern, damit die Bevölkerung auch in abgelegenen Orten in Wohlstand leben kann.

🇺🇸AMERIKA, DAS LAND DER UMBEGRENZTEN MÖGLICHKEITEN🇺🇸

1

Und Amerika ist besser? Von wegen 🤣 Dort ist das Gesundheitssysten richtig für den Poppes.

Nein,

zum einen gibt es keine Krankenversicherung und wenn, dann eher unterer Durchschnitt , heißt wenn man medizinische Versorgung braucht muss man alles im Voraus bezahlen - was nur Besserverdienende oder höher können.

Kommt auf die Situation drauf an. Als reicher schon, aber als normalo sicher nicht

Kann man pauschal nicht sagen.

Für den einen lebt es sich besser in den USA, für den anderen in Deutschland, für den nächsten ganz woanders,...

Woher ich das weiß:Studium / Ausbildung – Weiss alles, war Genasium