Hat Deutschland eigentlich andere Länder kolonialisiert und was bedeutet das Wort eigentlich?

4 Antworten

Deutsche Kolonien umfassten vor dem 1. Weltkrieg Gebiete wie 

Deutsch-Ostafrika (heute Tansania, Ruanda, Burundi) und Deutsch-Südwestafrika (heute Namibia), Kamerun, Togo, Deutsch-Neuguinea (heute Teil von Papua-Neuguinea, den Salomonen und anderen Inseln im Pazifik) und Samoa.

Auch das jetzt Jiaozhou geschriebene Kiautschou an der chinesischen Ostküste galt als deutsche Kolonie , allerdings infolge einer erzwungenen Verpachtung durch das chinesische Kaiserreich" . Bekannt war vor allem die Hauptstadt Tsingtau, heute in offizieller chines. Schreibung Qingdao, dessen Bier immer noch ein gutes Bier ist ; das hetzt ein weltweit vertriebenes Bier unter dem Namen Tsingtao ist. Die ehemals deutsche Brauerei besitzt inzwischen Brauereien in ganz China, Teilen Asiens und Nordamerikas.

tlizume  19.04.2024, 02:41

Und was bedeutet kolonisieren?

0

Es bedeutet, dass ein fremdes Land in Beschlag genommen und besiedelt wird, als wäre es das eigene, obwohl dort schon Menschen leben.

Deutschland hat Namibia ("Deutsch-Südwestafrika") als Kolonie gehabt.

Die Ausdrücke Kolonisation, Kolonisierung, seltener auch Kolonismus bezeichnen in der Geschichts- und Politikwissenschaft die Gründung und Entwicklung von Kolonien, das heißt die Landnahme und Besiedlung von Land durch Kolonisatoren beziehungsweise Kolonisten. - Wikipedia

Und ja, haben wir! Kann jetzt nicht alle Länder aufzählen, waren aber schon ein paar, z.B. Teile Afrikas. Deutschland hat aber erst sehr spät angefangen, das meiste Land war zu dem Zeitpunkt schon weg und von anderen Kolonialmächten besetzt.

Eines der schwärzesten Kapitel in Deutschlands Geschichte ist der Herero-Aufstand, bei dem während der Kolonisation von Teilen Afrikas wir fast ein ganzes Volk massakriert hätten :)

Kannst ja mal Google benutzen und dich näher informieren, wenn dich das Thema interessiert.

Woher ich das weiß:Studium / Ausbildung

Ja hat es, zB in Afrika. Kolonie ist ein erobertes Gebiet, dass als außerhalb des eigenes Gebietes "regiert, beherrscht" wird.