Warum durften die "Amerikaner" bei der "Eroberung" des Kontinents die Ureinwohner (Indianer) "auslöschen", ohne das es später als offizieller Völkermord anerkannt wurde?

Und was gibt gerade genau diesen Menschen/Politikern aus diesem Land das Recht, über andere Länder zu urteilen / andere Völkermorde anzuerkennen und Angriffskriege zu führen?

Die größte aller Fragen aber nun: Warum interessiert es niemanden bzw. sind USA für die Menschen immer noch ein Symbol für Freiheit, Gleichheit und Erfolg?