Kolonialismus – die besten Beiträge

Warum wirft man Deutschen immer noch die 40er vor?

Hallo!

Ich weiß dass alles was im 2ten Weltkrieg war absolut furchtbar, schrecklich und Menschenverachtend war, aber warum hat man als Deutscher immer noch diesen “Ruf” wenn das vor ca. 80 Jahren war?

Ich will gar nicht sagen dass die Zeit das besser macht oder dass man es vergessen sollte weil das auf gar keinen Fall so ist, aber ich meine vieles hat sich verändert und die Leute die damals eben so schlimm waren leben jetzt ja auch alle schon nicht mehr.

Mir ist schon bewusst dass eine Aufklärung dazu wichtig ist, aber warum werde ich wenn ich z.B online mit Leuten aus anderen Ländern spreche oft noch beschimpft aufgrund meiner Herkunft wenn ich außer dass ich in dem Land geboren bin indem es Jahre vor mir passiert ist nichts zu tun habe. Also ich teile diesen brutalen Gedanken ja in keinster Weise.

Und vor allem weiß ich nicht warum es so verachtend ist eine Deutschland Flagge im Garten zu haben, aber in Amerika wo jeder eine hat ist es ok obwohl sie selber eine schlimme Geschichte mit der Sklaverei hatten, aber darüber sprechen sie irgendwie nicht.

Auch Frankreich und England waren ja ganz groß mit diesem Kolonialismus aber außer dass man in der Schule darüber aufklärt passiert ja sonst auch nichts. Also wenn man an die Länder denkt ist deren Geschichte ja eben nicht gleich so etwas zentrales wo man in den ersten Sekunden dran denkt.

Warum ist das dann in Deutschland immer noch so?

Deutsch, Deutschland, Rassismus, Zweiter Weltkrieg, Kolonialismus, Kolonien

Ist das so richtig?

Also, ich muss quasi beschreiben, wie sich die Wahrnehmung von Kolonialismus im Laufe der Zeit verändert hat und ich werde dann folgendes zusammentragen:

Zeit der Kolonialreiche (16.-19. Jahrhundert): Kolonialismus wurde in Europa lange als legitimes Mittel zur „Zivilisierung“ und Ausbeutung anderer Völker gesehen. Die Kolonialmächte betrachteten ihn oft als “edlen Auftrag”, durch den vermeintlich unterentwickelte Gesellschaften in Religion, Bildung und Wirtschaft „entwickelt“ werden sollten. Allerdings ging dies meist mit brutaler Ausbeutung und der Unterdrückung indigener Kulturen einher. Die Kolonialmächte profitierten ökonomisch und sahen in den Kolonien eine Quelle für Ressourcen und Arbeitskräfte .

Nach der Dekolonisation (ab Mitte des 20. Jahrhunderts): Die Welle der Unabhängigkeitserklärungen ab den 1940er Jahren brachte eine kritische Neubewertung des Kolonialismus mit sich. Ehemalige Kolonien setzten sich aktiv mit ihrem kolonialen Erbe auseinander, und viele Menschen sahen den Kolonialismus als Ursache anhaltender Armut und politischer Instabilität. In Europa und anderen westlichen Staaten begann sich ein Bewusstsein für die Gewalt und Unterdrückung zu entwickeln, die mit dem Kolonialismus einhergingen .

Postkoloniale Theorie und Kritik (ab 1970er Jahren): Postkoloniale Denker und Theorien, wie die von Edward Said, untersuchten die tief verwurzelten Vorurteile und die kulturellen Verzerrungen, die durch den Kolonialismus entstanden sind. Sie betonten, dass die kolonialen Strukturen in Form von wirtschaftlichen und politischen Abhängigkeiten bestehen bleiben und sich in modernen Ungleichheiten widerspiegeln. Dabei wurde auch die Verantwortung der früheren Kolonialmächte zur Unterstützung ehemaliger Kolonien betont .

Gegenwärtige Perspektiven und Debatten (ab 2000er Jahren): Heute ist die öffentliche und wissenschaftliche Debatte vielschichtiger geworden. Themen wie Entschädigungen, Rückgabe von Kulturgütern und struktureller Rassismus haben an Bedeutung gewonnen. In westlichen Gesellschaften besteht ein wachsendes Bewusstsein für die Notwendigkeit, sich kritisch mit dem kolonialen Erbe auseinanderzusetzen. In der Entwicklungszusammenarbeit wird oft die Frage gestellt, inwiefern alte koloniale Denkmuster bis heute nachwirken und ob „Hilfe“ auf Augenhöhe geleistet wird oder paternalistisch bleibt .

Geschichte, Kolonialismus

Meistgelesene Beiträge zum Thema Kolonialismus