Frage von avdfdd, 105

Deutsche Kolonialmacht wo,wann und warum?

HI Liebe Leute,

Kann mit Bitte jemand sagen wo,wann und warum Deutschland Kolonialm(ä)chte hatte.

Ich glaub nur in Südwestafrika bis 1904 um die Wirtschaft anzukurbeln. Stimmt das

Vieln Dank schon mal im Vorraus und NEIN!!! Das sind nicht meine Hausaufgaben.

Antwort
von zehnvorzwei, 66

Hei, avdfdd, die deutsche Kolonialgeschichte ist kurz - nur etwa 30 Jahre lang, denn die "Besitztümer" gingen schon zu Beginn des ersten Weltkrieges verloren. Deutsche Kolonien waren Togo, Kamerun, Deutsch-Ostafrika (heute: Tanganjika), Deutsch-Südwest-Afrika (heute Namibia) sowie Kaiser-Wilhelm-Land (Papua-Neuguinea) und einige Südsee-Inselchen wie Samoa; dazu kam das von China gepachtete Gebiet von Kiautschou(Tsingtau). Viel "verdient" hat Deutschland an seinen Kolonien nicht. Grüße!

Antwort
von Udo107, 58

Während der Zeit unter Kaiser Wilhelm II. bemühte sich das Deutsche Reich nach Kräften im punkto Kolonien mit Frankreich, England und Co. aufzuschließen
Die wichtigsten Deutschen Kolonien waren: Kamerun, Togo, Deutsch-Südwestafrika (heutiges Namibia) und Deutsch-Ostafrika (heutiges Kenia und Tansania). Diese waren die deutschen Kolonien in Afrika. Freilich werden sie wohl ihren Teil zur Ankurbelung der Wirtschaft beigetragen haben und natürlich entstand dadurch neue Absatzmärkte allerdings war ihr Hauptzweck in Augen der deutschen Führung DASS es eben Kolonien unter deutscher Herrschaft waren vergleichen mit den Kolonien anderer europäischer Mächte dürften sie jedoch eher wenig ertragreich sein. Zu dem Zeitpunkt als Deutschland mitzog im Erschließen von Kolonien, waren die meisten schon weg. Zu denen in Afrika kam noch Zingtau in China dazu und einige Pazifische Inseln (u. A. Der Bismarck-Archipel) diese waren allerdings eher Minusgeschäfte und dienten wie schon gesagt auch nur dazu um sagen zu können "Deutschland besitzt Kolonien"

Die Kolonien wurden mit Amtsantritt Wilhelms II. Ab 1888 im Laufe der folgenden Jahre erschlossen
Mit der Niederlage im Ersten Weltkrieg 1918 musste das Deutsche Reich alle seine Kolonien abgeben

Antwort
von PatrickLassan, 78

Deutschland hatte keine Kolonialmacht, das Deutsche Reich war ein Kolonialmacht und besass Kolonien.

https://de.wikipedia.org/wiki/Deutsche_Kolonien_und_Schutzgebiete

Antwort
von rallytour2008, 52

Hallo avdfdd

Die deutschen Kolonialmächte ist nicht das richtige Wort dafür.

 Wird  jetzt die Kontinentverschiebung und Völkerwanderung mit einbezogen 

dürfte es sich nicht mehr um Kolonialmächte aus Deutschland handeln.

Deutschland setzt sich für Menschen ein und nicht gegen Menschen.

Somit wäre der Sklavenhandel vom Tisch.

Ergo bleibt nur der Wirtschaftliche Aspekt.

Gruß Ralf

Keine passende Antwort gefunden?

Fragen Sie die Community

Weitere Fragen mit Antworten