Sollte Deutschland amerikanisiert werden?

 - (Politik, Deutschland, Gesetz)

Das Ergebnis basiert auf 27 Abstimmungen

Nein, weil.. 93%
Ja, weil.. 7%

5 Antworten

Nein, weil..

Als jemand der auch schon in Amerika war gar kein Bedarf nein danke die massive Obdachlosigkeit, dass jeder Idiot eine Waffe tragen darf, die aufgesetzte fake Freundlichkeit, das schlechte Krankenversicherungssystem, dieser nervige Patriotismus usw sind alles Dinge die keiner braucht.

Nein, weil..

Von den westlichen Ländern sind die USA vermutlich das schlimmste. Der Freiheitsgedanke ist viel zu weit vorangetrieben, dass die Freiheiten anderer Menschen schon wieder deutlich beschnitten werden. Darüber hinaus sind die USA außenpolitisch nicht gerade vorbildlich, was so gewisse Militäreinsätze in der Vergangenheit gezeigt haben. Solche Schattenseiten hat auch Deutschland in der Geschichte - aber wir gehen damit auf eine angemessene Weise um, während auf der anderen Seite des Atlantik die Kriegsverbrecher aus Vietnam gefeiert werden.

Woher ich das weiß:Hobby – Ich beschäftige mich gerne mit aktueller Innen- & EU-Politik
Nein, weil..

Weil es a) kein "Deutschland" gibt, sondern eine "Bundesrepublik Deutschland" und b) die BRD eben NICHT die USA ist! Es handelt sich um zwei unterschiedliche Staaten.

Woher ich das weiß:eigene Erfahrung – Menschlichkeit ist mein persönlicher Grundsatz!
Nein, weil..

Nein, natürlich nicht.

Ciao....