Afrika: Ich weiß es nicht genau aber entweder nach dem ersten oder zweiten Weltkrieg haben die Deutschen über uns geherrscht haben. Derzeit war es die Koloniezeit wo Frankreich England und andere Länder über Afrika geherrscht haben. Deutschland hat Togo(früher war es ein Königreich und größer als jetzt aber die Deutschen haben sich mit Frankreich Togo geteilt), Kamerun, Namibia und Tansania koloniesiert. Das alles weiß hoffe das ich dir weiter geholfen habe.

...zur Antwort