Was wurde eigentlich aus den deutschen Kolonien nach dem 1. Weltkrieg?

... komplette Frage anzeigen

3 Antworten

Musste Deutschland am Ende des 1. Weltkrieges seine Kolonien abgeben?

Ja.

wurden Togo, Kamerun, Namibia und Tansania unabhängig?

Nein. Sie standen bis zur Unabhängigkeit unter britischer bzw. französicher Verwaltung.

Kommentar von andre123
05.11.2015, 09:46

Ergänzend kamen die  Südseegebiete übrigens  theoretisch unter Völkerbundmandat (neuseeländische Verwaltung) , was aber faktisch einem kolonialen Status gleichkam und die Bedingungen  gegenüber der deutschen Kolonialverwaltung für die einheimische  Bevölkerung deutlich verschlechterte

1

Die Südseegebiete kamen theoretisch unter Völkerbundmandat (neuseeländische Verwaltung) , was aber faktisch einem kolonialen Status gleichkam und die Bedingungen  gegenüber der deutschen Kolonialverwaltung für die einheimische  Bevölkerung deutlich verschlechterte

Was möchtest Du wissen?