Kolonie? Definition?
Hallo :)
Wir haben vor kurzem in Geschichte die Aufgabe bekommen zu definieren, was eine Kolonie ist.
In Wikipedia steht: Als Kolonie (von lateinisch colere, d. h. ursprünglich ‚bebauen‘ im Sinn von ‚Land bestellen‘) bezeichnet man in der Neuzeit ein auswärtiges abhängiges Gebiet eines Staates ohne eigene politische und wirtschaftliche Macht.
Kann mir irgendjemand genau erklären, was das bedeutet?
Danke :)
9 Antworten
Hi, Kolonien waren Siedlungs- und Städtegründungen auf neuerworbenem Grund. Die alten Griechen gründeten Kolonien ums Mittelmeer und ums schwarze Meer. Politisch waren die Kolonien von der Mutterstadt (Stadtstaat) abhängig. So gründeten später auch Einwanderer Kolonien in Afrika, in Neuseeland, Australien, Amerika. Wobei Ureinwohner dezimiert, vertrieben, versklavt oder völlig ausgerottet wurden (bspw. auf: Tasmanien, Haiti, Feuerland, Kuba usw.). Mit der Zeit wuchs die politische, wirtschaftliche Macht der Kolonien, sodaß sie meist selbständig wurden (Australien, Neuseeland, USA als Beispiel). Gruß Osmond http://www.downunder-dago.de/113/tasmanien/Jagt-auf-aborigines.html
zb. hat Frankreich in Afrika eine Kolonie... Frankreich ist dort einmarschiert hat rabatz gemacht und denen gesagt das das Land jetzt ihnen gehört. Die Kolonie ist jetzt Mitten in Afrika undgehört aber Frankreich, die Menschen dort müssen französisch sprechen und liefern Bodenschätze etc an die Franzosen. Die Menschen dort haben die selbe Regierung wie die Franmänner bei uns auch wenn sie Kilometer weit weg sind. Das ist ne Kolonie^^ Also quasi ein Gebiet das von einem Land eingenommen wurde und zu seinem gemacht wurde.
Naja FRÜHER waren in Afrika an dem Westzipfel viele französische Kolonien,heute ist Elfenbeinküste auch Elfenbeinküste und nicht Frankreich.
In Wikipedia steht: Als Kolonie (von lateinisch colere, d. h. ursprünglich ‚bebauen‘ im Sinn von ‚Land bestellen‘) bezeichnet man in der Neuzeit ein auswärtiges abhängiges Gebiet eines Staates ohne eigene politische und wirtschaftliche Macht.
Nö das ist eine sehr einfache Beschreibung. Genau das was du wolltest.
Oben steht dasselbe schon. Wer lesen kann ist eindeutig im vorteil!
Man versteht darunter ein Gebiet oder Land, das von einer fremden Macht beheerst wird, Die europäischen Entdeckungen legten den Grundstein für viele Kolonien in Nord und Südamerika, Afrika, Asien und auf den pazifischen Inseln. Bedeutende europäische Mächte waren:
Spanien
Portugal
Grossbritannien
Frankreich
Belgien
Niederlande
Ich kann dir nur empfehlen, mal auf der Seite der Bundeszentrale für politische Bildung zu schauen. Dort gibt es super Erklärungen und es ist (im Gegensatz zu wikipedia) eine zitierbare Quelle. :-)
http://www.bpb.de/nachschlagen/lexika/politiklexikon/17718/kolonialismus
Unnötig?