Frage von DWSPN, 48

Was wurde eigentlich aus den deutschen Kolonien nach dem 1. Weltkrieg?

Musste Deutschland am Ende des 1. Weltkrieges seine Kolonien abgeben oder wurden Togo, Kamerun, Namibia und Tansania unabhängig? Ein Link oder eine Quelle eurer Antworten wären klasse.

MillyLaz

Hilfreichste Antwort - ausgezeichnet vom Fragesteller
von PatrickLassan, 48

Musste Deutschland am Ende des 1. Weltkrieges seine Kolonien abgeben?

Ja.

wurden Togo, Kamerun, Namibia und Tansania unabhängig?

Nein. Sie standen bis zur Unabhängigkeit unter britischer bzw. französicher Verwaltung.

Kommentar von andre123 ,

Ergänzend kamen die  Südseegebiete übrigens  theoretisch unter Völkerbundmandat (neuseeländische Verwaltung) , was aber faktisch einem kolonialen Status gleichkam und die Bedingungen  gegenüber der deutschen Kolonialverwaltung für die einheimische  Bevölkerung deutlich verschlechterte

Antwort
von andre123, 29

Die Südseegebiete kamen theoretisch unter Völkerbundmandat (neuseeländische Verwaltung) , was aber faktisch einem kolonialen Status gleichkam und die Bedingungen  gegenüber der deutschen Kolonialverwaltung für die einheimische  Bevölkerung deutlich verschlechterte

Antwort
von swissss, 41

Steht bei jedem Land.

https://de.wikipedia.org/wiki/Togo

Keine passende Antwort gefunden?

Fragen Sie die Community