Warum gibt es heute keine deutschen Kolonien mehr?

... komplette Frage anzeigen

8 Antworten

Der SEHR schwarze Elmshorner N3-Moderator Jared Dibaba War schon vor längerer Zeit in den USA und suchte dort erstaunlich viele plattdeutsch sprechende Menschen "echte Amerikaner" auf, um sich mit ihnen über ihre jeweilige Familiengeschichte zu unterhalten. Der Bericht lief auf 3sat.Leider habe ich auf meine mailanfrage keinen Termin bekommen, wann das erneut über den Sender geht. Ich staune immer noch darüber, wie viele Leute er auf "deutsch" (platt) begrüßen konnte. Insofern ist die deutsche Kolonialgeschichte noch nicht zu Ende. Tsingtau (quingdao- China) holt sich gelegentlich deutsche Fachwerk-Experten heran, um die unzähligen Fachwerkhäuser aus "deutscher Zeit" fachgerecht renovieren und erhalten zu können.

Antwort bewerten Vielen Dank für Deine Bewertung

Das Deutsche Reich verlor seine Kolonien nach dem 1. Weltkrieg.

Übrigens: Es gibt auch keine englischen, französischen, niederländischen, italienischen oder portugiesischen Kolonien mehr.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von StevenArmstrong
14.02.2016, 20:28

"Es gibt auch keine englischen, französischen, niederländischen, italienischen oder portugiesischen Kolonien mehr."

Stimmt nicht ganz. Diese Gebiete werden als "Außengebiete" o.ä. bezeichnet.

Großbritannien, Frankreich, Norwegen, Dänemark und die Niederlane haben noch solche Außengebiete.

1

schau mal nach wie der 1. Weltkrieg ausging.

Antwort bewerten Vielen Dank für Deine Bewertung

Das ist halt so, ohne wie und warum. Warum fährst du keinen "Adler" oder "Goliath" ? Manche "Warum-Fragen" stellt man nicht, wenn sie keinen Sinn machen.Hier hat die Geschichte einfach Kolonien überholt, was man sich selbst denken kann - es sei denn, man hat lange Weile. 

Antwort bewerten Vielen Dank für Deine Bewertung

Durch den Versailler Vertrag nach dem Ersten Weltkrieg verlor Deutschland alle Kolonien.

Antwort bewerten Vielen Dank für Deine Bewertung

Die Kolonien wurde Deutschland nach dem Ersten Weltkrieg aberkannt. (Versailler Vertrag)

Antwort bewerten Vielen Dank für Deine Bewertung

Nach dem ersten Weltkrieg wurden die deutschen Kolonien unter die Verwaltung des Völkerbundes (heute UNO) gestellz.

Im Nachhinein ein Segen, denn die Unabhängigkeitskonflikte, die andere europäische Staaten hatten, gab es nicht.

Trotz der nicht immer "glücklichen" deutschen Kolonialherrschaft sind heute die Beziehungen ausgezeichnet....

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?