Ist die USA wirklich so toll?
Lange Zeit, oder eigentlich noch immer galt ja die USA als eines der besten und freisten Länder. Ist das denn immer noch so? Oder war das schon immer reine Propaganda, und nicht die Wahrheit? Ich kann mir vorstellen, dass es für Minderheiten dort immer noch nicht so toll ist, richtig? Oder ist ist die USA trotz Probleme, das beste Land der Welt? Oder sind die meisten europäischen Länder einfach besser?