Frage von Zua200, 31

welche rolle spielt Deutschland bei der Kolonialmacht in Afrika?

Antwort
von zehnvorzwei, 16

Hei, ZUa200, Deutschland wurde erst sehr spät Kolonialmacht, weil es zu sehr mit sich selbst beschäftigt war. Es blieben ihm nur "Reste" in Ostafrika, Togo, Kamerun und dem heutigen Namibia. Und die Kolonialmacht der Deutschen ging im ersten Weltkrieg rasch verloren. Allerdings war sie für die betroffenen Völker zum Teil sehr "heftig" und in einigen Bereichen nachhaltig. Deutsche Spuren gibt´s in Namibia z. B. heute noch zu besichtigen. Grüße!

Kommentar von Zua200 ,

Danke!

Antwort
von voayager, 6

Für das deutsche Kaiserreich gab es da nicht mehr viel zu ernten, denn der größte Teil Afrikas war unter den anderen europ. Kolonialmächten schon aufgeteilt.

Antwort
von Leisewolke, 23

bei welcher Kolonialmacht?

Antwort
von lohne, 20

Nur eine sehr geringe und das auch nur bis 1918.

Keine passende Antwort gefunden?

Fragen Sie die Community

Weitere Fragen mit Antworten