Lebt man in der USA besser als in Deutschland?

14 Antworten

Die breite Masse lebt nicht besser. Guck mal die große Zahl jener mit schlechter Gesundheit an bereits in jungen Jahren. Da sieht man bereits massenhaft 40jährige mit Stock oder Krücken. Das bekommt man ohne Krankenversicherung. Diabetiker sterben, weil Insulin zu teuer ist.

Gebäude bestehen aus Pappwänden. Eine Sturmbö, dann ist das Dach aus Dachpappe auch noch weg...

Was ist besser für dich?

Jeder hat andere Standards, wie ein gutes Leben für ihn ausmacht.

Was man sagen kann, man lebt zum Teil anders. Stichwort Autoverkehr vs öffentlicher Nahverkehr.

Aber der größte Unterschied besteht nicht allein aufgrund des anderen Landes, sondern aufgrund persönlicher Gegebenheiten.
Stadt / Land, Arm/Reich, Ausgebildet/Unausgebildet.

Genau in diesen Punkten unterscheiden sich auch in Deutschland die Lebenswelten gewaltig.

Nur hier müssen alle eine Krankenversicherung haben und alle haben ein Recht auf eine Grundsicherung.

Woher ich das weiß:eigene Erfahrung
Von Experte juergen63225 bestätigt

Man kann besser im Niemandsland verschwinden, weil es keine Meldepflicht gibt. Auch weniger Auflagen beim Bauen oder sowas.

Aber nur für Leute mit Geld. Der Normalmensch kämpft mehr oder weniger ständig um das Überleben. Die begehrte Krankenversicherung haben nur wenige Arbeitgeber, selbst bezahlen ist für die meisten Menschen schlicht zu teuer. Arbeitsrecht gibt es nahezu auch nicht.

Ich finde, wir leben hier besser

  • ja
  • nein
  • vielleicht

so wie Deutschland ein sehr weitläufiges Land ist, gilt es auch für die USA. Auch hängt es massgeblich von den eigenen Ansprüchen ab, und dem Geld & der Energie, die man "zum Leben" investiert, und umgekehrt, wie man es dann wahr nimmt.

eine pauschale Antwort ist daher nicht möglich.

Insgesamt nicht. Allenfalls die Wohnfläche ist größer und die Steuern niedriger, dafür gibt es viele Nachteile.