In meiner Schulzeit (bin 2001) geboren, hat man die Kolonien natürlich kritisch betrachtet, u.a. wegen des Völkermords an den Hereros, trotzdem war der Tenor, dass die Kolonien den heutigen Handel und Fortschritt überhaupt erst möglich gemacht haben.
Vorallem die britischen Kolonien waren hier von besonderer Bedeutung für den modernen Handel. Wir haben uns in der Schule auch viel mit der britischen Marine auseinander gesetzt, u.a. Lord Nelson, usw.
Wir hatten immer alle viel Bewunderung für das britische Reich.
In den letzten Jahren kommt immer schärfere Kritik an den Kolonien auf. Aktuell wurde z.B. diskutiert, ob man eine Frau wie die Queen ehren dürfe, die massiv vom Kolonialismus profitiert hat.
Für uns hatten Kolonien aber auch was positives. Die heutige freie Welt ist nunmal da, wo Engländer hingezogen sind: die USA, Kanada, Australien, Neuseeland.
Hongkong hat lange von den Briten profitiert.
Der heutige Westen wäre also ohne Kolonien überhaupt nicht denkbar. Ohne die USA hätte es viel Fortschritt überhaupt nicht gegeben.
Wir haben also durchaus auch kritische Sachen besprochen, aber am Ende war klar, dass die Kolonien für die heutige Welt unverzichtbar gewesen waren.
Ich glaube, heute würde man dieses Thema ganz anders behandeln. Wir waren z.B. auch immer stolz über die europäischen Archäologen und heute wird gefordert, man solle alles zurück geben.
Von eher linken Personen wird heute gefordert, dass man die Kolonialzeit, so wie den Holocaust, bereuen soll. Ich kann das nicht. Da wir in der Schule das eben ganz anders gesehen haben.
Die Frage ist nun: Woher kommt, gerade in den letzten 5 Jahren, diese neue Verdammung der Kolonialzeit, die viel radikaler ist als noch vor 6/7 Jahren? Was ist der Auslöser dafür?
Ich würde mich über gute Antworten freuen. Bitte nicht einfach nur Stichpunkte.
Aber es stand eine andere Überschrift finden😂