Definition von Kolonialismus

... komplette Frage anzeigen

3 Antworten

Als Kolonialismus bezeichnet man die Politik eines Staates, die auf den Erwerb und Ausbau von Kolonien ausgerichtet ist. Das bedeutet natürlich Besetzung von Gebieten, die nicht zum Staatsgebiet des Kolonialstaates gehören, und schließt selbstverständlich die Unterdrückung der dort lebenden Völker und die Ausbeutung der dort vorhandenen Ressourcen ein. Glücklicherweise ist der Kolonialismus eigentlich überwunden, wobei noch viele ehemalige Kolonien unter den Folgen der Kolonialzeit leiden.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von Orla0608
21.03.2012, 17:13

Perfekt, danke!!!

0

Die in enger Verbindung mit dem Imperialismus stehenden Bemühungen v.a. europäischer Staaten seit dem 15.Jahrhundert, durch Erwerb von Kolonien neue Rohstoffquellen zu erschließen, Absatzmärkte und Siedlungsmöglichkeiten zu schaffen sowie ihre Machtstellung im europäischen Kräftefeld abzusichern.

Antwort bewerten Vielen Dank für Deine Bewertung

Unter Kolonie versteht man ein Gebiet oder ein Land welches von einer fremden Macht beherrscht wird . Bedeutende Kolonialmächte waren Spanien, Portugal, Grossbritanien, Frankreich, Belgien und die Niederlande. Durch Kolonien erhoffte man sich neue Siedlungsgebiete sowie neue Rohstoffe.

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?