Kolonien Deutschland?

3 Antworten

Die Völker lebten immer da, wo sie lebten. Es war ihr Land. Bismarck war auch zuerst gegen Kolonien, aber hanseatische Kaufleute setzten ihn unter Zugzwang (https://de.wikipedia.org/wiki/Lüderitzland) und dann sprang er völlig auf den Zug auf.

Dieser „ Schutzbrief“ war eine Erfindung des umtriebigen Kolonialisten Carl Peters.

Carl Peters nötigte mit Druck die Stammeshäuplinge dazu, mit einer Unterschrift meist in Form von 3Kreuzen das bereiste Gebiet unter Schutz zu stellen.

Was im Grunde aber eine Art Hoheitabtretung an das Deutsche Reich war.

Buchtip zum reinschnuppern in diese komplexe Materie:

DEUTSCHE KOLONIAL-GESCHICHTE

von Sebastian Conrad

Die deutschen Kolonien gingen hauptsächlich aufgrund der Ereignisse des Ersten Weltkriegs unter.

Nach dem Krieg wurden die deutschen Kolonien als Teil des Versailler Vertrags von 1919 an andere Länder übertragen.

Die deutschen Kolonien wurden aufgeteilt und von Großbritannien, Frankreich, Belgien, Japan und anderen verwaltet.

Dies führte letztendlich zum Ende der deutschen Kolonialherrschaft.