Frage von Bubbles01, 78

Warum brauchte Deutschland Kolonien?

Antwort
von dancer2205, 54

Man brauchte sie nicht, man wollte sie um eine Hegemonialmacht zu werden und um unter Wilhelm II. zur Weltmacht aufzusteigen.

Natürlich hatte man Kolonialwaren, Rohstoffe und billige Arbeitskräfte, trotzdem rentierten sich die Kolonien für das Deutsche Reich nie, da man bei der "Verteilung der Welt" zu spät eingegriffen hatte und nie den "Platz an der Sonne" (Zitat: Reichskanzler von Bülow) bekam.

Kommentar von Bubbles01 ,

Dankeschön für die antwort aber was genau heißt Platz an der Sonne

Kommentar von dancer2205 ,

Das hat Bernhard von Bülow gesagt, der arbeitete im Auswärtigen Amt und wurde paar Jahre nach dieser Aussage Reichskanzler. Es steht metaphorisch für das Streben nach Weltmacht des Deutschen Reiches unter Kaiser Wilhelm II. Wer "nah an der Sonne steht" ist, steht "über" den anderen, ist erhabener als die anderen Staaten. Jedoch betonte er, dass die anderen nicht in den Schatten gestellt werden sollen...

https://de.wikipedia.org/wiki/Platz_an_der_Sonne

Antwort
von LukDill02, 21

Die Kolonien brauchte DE eigentlich nicht und sie haben wirtschaftlich sogar geschadet (DE musste sie teuer kaufen (z.B. die Kolonien in der Südsee.) Es ging hier mehr darum mit den Anderen "mithalten" zu können, sowie es mit der Flotte auch war, man kann Wilhelm II wirklich nicht unterstellen, dass er eine größere Flotte als die Briten haben wollte, aber er wollte halt mithalten.

Das ist ungefähr so wie bei Kindergartenkindern: Herbert hatte das neue Spielzeugauto und Günther will es nun unbedingt auch haben

Antwort
von soissesPDF, 20

Weil andere welche hatten, wie Großbritannien.
Gebraucht hat Deutschland sie nicht, Wilhelm II wollte Weltherrschaft spielen, zumindest mitspielen.
Deutschlands unseliger Hang nach Größe, meist gefolgt vom Größenwahn.

Begann schon 1871 Gründung Deutsches Reich, setzte sich dann fort 1914/18 und schließlich bis zum GröFaz, der kleine Gefreite der Feldherr spielte und es schließlich nachhaltig vergeigte.

Antwort
von kjklol, 48

Wirtschaftlich betrachtet gar nicht. Die haben sich nicht rentiert. Sie brauchten die Kolonien eher fürs Prestige, um mit den anderen großen Nationen jener Zeit mitzuhalten.

Kommentar von Bubbles01 ,

Könntest du das bitte nochmal so erklären so das ich das verstehe bitte also auf 8. Klässler niveau

Kommentar von Sheeshboi3000 ,

Penisvergleich nur mit Kolonien

Kommentar von kjklol ,

Mein Kumpel  hat mal das atomare Wettrüsten im kalten Krieg als internationalen Schwanz vergleich bezeichnet, dass kam beim mündlichen Geschichtstest bei der Lehrerin nicht so gut an.

Kommentar von kjklol ,

Also Geldmäßig haben die sich nicht gelohnt, weil sie ungefähr gleich viel, wenn nicht gar gekostet haben. Deutschland brauchte Kolonien, um sich international einen Namen zu machen, denn man brauchte damals Kolonien, um als angesehene Nation zu gelten.

Antwort
von Linguino, 17

Um mit den anderen Mächten mitzuhalten. Die anderen Kolonialmächte (insbesondere das Vereinigte Königreich und Frankreich) konnten leicht und mit wenig Aufwand Rohstoffe aus ihren Kolonien gewinnen; das hatte ein großes wirtschaftliches und militärisches Potenzial, von dem Deutschland nicht ernsthaft bedroht werden wollte. (Nebenbei sei gesagt, dass die deutschen Kolonien nicht sehr profitabel waren, aber das ist ein anderes Thema.)

Antwort
von archibaldesel, 12

Gebrauchte Deutschland nicht. Das war für den Kaiser eine reine Predigefrage. Die Kolonien, die man hatte, waren unter wirtschaftlichen Gesichtspunkten alle defizitär.

Keine passende Antwort gefunden?

Fragen Sie die Community