Ich frag mich echt, wann die USA endlich besser werden. Es ist wirklich beängstigend zu sehen, wie weit sie in allen Bereichen hinterherhinken. Das beste Land der Welt was von den schlimmsten Menschen regiert wird. Das passt doch nicht zusammen. Hat jemand eine Idee, was da los ist und was man tun kann, damit sich endlich etwas ändert?
Wann werden die USA besser?
Amerika,
USA
Weitere Inhalte können nur Nutzer sehen, die bei uns eingeloggt sind.