Gehört Amerika den Weißen?
Ich meine die Europäer haben den Kontinent Amerika überhaupt entdeckt und aufgebaut. Gehört Amerika den Weißen?
20 Stimmen
4 Antworten
die indigenen Völker haben dort bereits seit lange Zeit gelebt. Warum sollte es jemand anderem als ihnen gehören?
Wem Amerika gehört, liegt nicht in der Hautfarbe oder Herkunft, sondern in der Anerkennung und Wertschätzung der Vielfalt, die das Land prägt.
Die USA sind das Ergebnis eines jahrhundertelangen Prozesses, der verschiedene Kulturen und Ethnien miteinander verbunden hat. Die Geschichten und Identitäten der indigenen Völker, der afroamerikanischen Bevölkerung, der Einwanderer aus verschiedenen Teilen der Welt und vieler anderer Gruppen sind entscheidend für das, was Amerika heute ist.
Also, gehört Amerika den Weißen? Ich denke, das ist eine Frage der Perspektive. Der koloniale Einfluss ist unbestreitbar, aber die Realität heute ist, dass Amerika ein Schmelztiegel unterschiedlichster Kulturen ist, die alle ihren Platz haben. Es ist wichtig, die Geschichte zu respektieren, aber auch die Gegenwart zu schätzen und eine inklusive Zukunft zu fördern. Jeder Mensch, unabhängig von seiner Herkunft, trägt zur Vielfalt und Stärke der amerikanischen Identität bei.
LG aus Tel Aviv
sie gehört allen Menschen, die da leben.
Weiß, im Sinne von hellhäutig?
Also ich würde ja sagen, dass dieser Kontinent niemandem gehört; es kommt außerdem darauf an, wie die Begriffe "gehören" und "Besitz" definiert sind.