Deutsche Kolonien um das 19. Jahrhundert wissenswertes?!?!?

8 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Also ich kann dir erklären was die Deutschen in Afrika mit ihren Kolonien wollten:

  • Bismarck wollte zunächst keine Kolonien in Afrika erwerben, da ihm die Unterhaltung zu teuer erschien. Außerdem wollte er keinen Krach mit Frankreich haben die in Afrika sehr viele Kolonien besaßen. Kaiser Wilhelm der 2. setze Bismarck aber immer mehr unter Druck, da er auch zu dem Kreis der Kolonial - und Weltmächte gehören wollte. Auch Großgrundbeseitzer und Großindustrielle wollten schließlich Kolonien in Afrika, da sie dort Rohstoffe verkaufen wollten bzw. billig herstellen und anschließend wieder nach Deutschland importieren wollten.
  • 1884 musste er seine ablehnende Haltung schließlich aufgeben und schickte Carl Peters nach Afrika um möglicht viele Kolonien zu erwerben. Dies war ein Wettlauf gegen die Zeit, denn auch britische und französische Expeditionisten waren auf dem Weg um ebenfalls von den Stammesfürsten Gebiete zu erwerben.
  • Weigerten sich Stammesfürsten den Deutschen Gebiete zu übergeben, wurden ihr Dörfer bei Einbruch der Dunkelheit niedergebrannt - vorher wurden selbstverständlich alle Wertgegenstände ausgeräumt.
  • Die weißen Siedler nahmen der Bevölkerung ihr Land häufig auch ihr Vieh weg und zwangen die Männer und Frauen auf ihren Plantagen zu arbeiten. Aufseher und Plantagenbesitzer gingen rücksichtslos und ohne jeden Respekt mit den Arbeitern um, misshandelten sie und vergewaltigten unzählige Frauen. Immer wieder gab es daher Aufstände der einheimischen Bevölkerung, die aber meist schnell mit Gewalt niedergeschlagen wurden.
  • Die Kolonialmächte bestimmten die weitere wirtschaftliche Entwicklung "ihrer" Kolonien. Da die Bodenschätze und Erträge der Plantagen vor allem den Mutterländern zugute kommen sollten, wurden die industrielle Entwicklung in den Kolonien nicht gefördert.

So ich hoffe ich konnte dir helfen :)

okay vielden dank hat mir sher geholfen

0

Wie so viele andere auch, bist du im Irrtum mit dem Jahrhundert: Die deutsche "Kolonialpolitik" begann erst im zwanzigsten, also NACH der Jahrhundertwende 1899\1900.

Was möchtest Du wissen?