Wie wurde Deutschland zur Kolonialmacht?

...komplette Frage anzeigen

3 Antworten

Erst unter dem Kaiser wurde Deutschland zu einer Seemacht. Engländer, Spanier, Franzosen, Portugiesen usw. waren das schon lange. Nun wollte auch der Kaiser mitmischen, was den Engländern nicht gefiel, vllt. auch mit einer der Gründe für den 1. Weltkrieg. Viele Kolonien hatten die Deutschen jedenfalls nicht und nach dem 1. Weltkrieg mußten sie ohnehin alle Kolonien aufgeben. Eine lange Tradition hatte das in D jedenfalls nicht. Ein Überbleibsel ist die Insel Helgoland. die gehörte den Engländern und sie haben sie dem Kaiser geschenkt, in der Hoffnung dass er ihnen mit ihren Kolonien nicht allzu sehr im Weg steht. Eine lustige Geschichte ist auch die Bananengeschichte, od. das Bananenmonopol. 100 Jahre lang hatte der Kaiser garantiert, dass nur Bananen aus dieser Kolonie (weiß jetzt nicht mehr welche) in Deutschland eingeführt werden dürfen. Das ging dann so bis in die 1970er od. 1980er Jahre.

Wurde Deutschland jemals eine Kolonialmacht? Die hatten doch nur ein paar kümmerliche Kolonien in Afrika, weil Bismark gepennt hat.

Braintube 09.07.2011, 16:03

Deutschland war die größte Kolonialmacht. Natürlich hinter GB, Frankreich, Spanien und noch so ein paar Ländern.

Sie wurden zur größten Kolonialmacht, weil sie es einfach wurden.^^

0
Nutellahase 09.07.2011, 16:11
@Braintube

Toll! Damit kann ich ja jetzt auch soo riiichtig vieeel anfangen....

0
Nutellahase 09.07.2011, 16:04

Ja so steht es in meinen Büchern von der Schule..... Und Bismarck war lediglich vorsichtig was das angeht. Er befürchtete dass es wegen dem Wettkampf um Kolonien zu großen konflikten mit den Großmächten kommt

0
Koerperkontakt 09.07.2011, 16:19
@Nutellahase

Nein die großen Kolonialmächte GB, Frankreich, Niederlande etc. hatten schon fast alle "guten" Kolonien weggeschnappt. Für Deutschland blieben nur kleine Fleckchen, ansonsten hätte Deutschland einen Krieg gegen andere Länder führen müssen um an wichtige Kolonien zu kommen. Bismarck hat lediglich um den Ausschwung in der Zeit in Deutschland zu schaffen, auch versucht durch kleine Kolonien dies zu erreichen (Stickwort: Platz an der Sonne). Aber eine Kolonielmacht war Deutschland verglichen mit den anderen Ländern nie.

0
Josefka63 09.07.2011, 19:48
@Nutellahase

Vor allem sah Bismarck keinen wirtschaftlichen Nutzen in Kolonien. Womit er recht hatte. Zu dieser Zeit war das nämlich schon ein Draufzahl-Geschäft. Er gab nur der herrschenden Stimmung nach, die dahin ging, dass, wenn Deutschland wirklich eine Weltmacht sein wolle, dazu auch zwingend Kolonien gehörten....

0

"Wie wurde Deutschland zur Kolonialmacht" als Google-Suche liefert viele brauchbare Infos

LG...

Was möchtest Du wissen?