Kolonien – die neusten Beiträge

Warum wirft man Deutschen immer noch die 40er vor?

Hallo!

Ich weiß dass alles was im 2ten Weltkrieg war absolut furchtbar, schrecklich und Menschenverachtend war, aber warum hat man als Deutscher immer noch diesen “Ruf” wenn das vor ca. 80 Jahren war?

Ich will gar nicht sagen dass die Zeit das besser macht oder dass man es vergessen sollte weil das auf gar keinen Fall so ist, aber ich meine vieles hat sich verändert und die Leute die damals eben so schlimm waren leben jetzt ja auch alle schon nicht mehr.

Mir ist schon bewusst dass eine Aufklärung dazu wichtig ist, aber warum werde ich wenn ich z.B online mit Leuten aus anderen Ländern spreche oft noch beschimpft aufgrund meiner Herkunft wenn ich außer dass ich in dem Land geboren bin indem es Jahre vor mir passiert ist nichts zu tun habe. Also ich teile diesen brutalen Gedanken ja in keinster Weise.

Und vor allem weiß ich nicht warum es so verachtend ist eine Deutschland Flagge im Garten zu haben, aber in Amerika wo jeder eine hat ist es ok obwohl sie selber eine schlimme Geschichte mit der Sklaverei hatten, aber darüber sprechen sie irgendwie nicht.

Auch Frankreich und England waren ja ganz groß mit diesem Kolonialismus aber außer dass man in der Schule darüber aufklärt passiert ja sonst auch nichts. Also wenn man an die Länder denkt ist deren Geschichte ja eben nicht gleich so etwas zentrales wo man in den ersten Sekunden dran denkt.

Warum ist das dann in Deutschland immer noch so?

Deutsch, Deutschland, Rassismus, Zweiter Weltkrieg, Kolonialismus, Kolonien

Geschichte Kolonien/Verständnis?

Hallo,

ich habe mir gerade viele Geschichtsquellen durchgelesen und habe dazu ein paar Fragen.

1.Und zwar habe ich gelesen, dass ein Ziel vieler Mächte war,  von den Kolonien Afrikas (Jahre 1880) , wirtschaftlich zu profitieren. Jedoch, so in der Quelle steht: Der Handel mit den Kolonien spielte eine wirtschaftlich untergeordnete Rolle im Vergleich zu dem Handel mit den Großmächten, da die Kosten für die Verwaltung, Verkehrsverbindungen, millitärische Besetzungen und weiteren Faktoren, meistens größer gewesen sind, als der erwirtschaftete Gewinn.  Meine Frage dazu: Haben die Kolonialmächte wirklich mit den Ländern, die sie besetzt haben, gehandelt? Ich habe eher gedacht, dass es dort mehr zur Ausbeutung gekommen ist und nicht zu einer Verhandlung.

2. Es wurde erklärt, dass die Verwaltung des Landes durch einheimische Fürsten oder Stammesführer erfolgte, wobei eine allgemeine und indirekte Herrschaft garantiert wurde. Meine Frage: Es war aber trotzdem so, dass die Kolonialmächte mehr Bestimmung über die Ereignisse im besetzen Land hatten oder?

3. Eine Auswirkung auf die Einheimischen ist die Zurückdrängung der Moralvorstellung der Einheimischen. Wie ist das zu verstehen? Also, wurde ihre Moralvorstellung in das Negative verändert?

4. Allgemeine Frage: Als die europäischen (vor allem europäischen) Mächte unbekannte afrikanische Länder erkundigt haben, haben sie dort Straßen, Eisenbahnlinien und Häfen errichtet, um die Länder schneller und besser zu erkunden und in den modernen Wirtschaftshandel einzubinden. Dadurch wird doch gemeint, dass die billigen Rohstoffe beispielsweise geklaut wurden und teurer an beispielsweise andere europäische Länder weiterverkauft wurden.

Europa, Deutschland, Afrika, Kolonialismus, Kolonien

Meistgelesene Beiträge zum Thema Kolonien