Wo ist der Unterschied zwischen Kolonialismus und Kolonien?

... komplette Frage anzeigen

4 Antworten

Kolonie: Als Kolonie (von lateinisch colere, ‚bebauen, Land bestellen‘) bezeichnet man in der Neuzeit ein auswärtiges abhängiges Gebiet eines Staates ohne eigene politische und wirtschaftliche Macht.

Begrifflich hängt Kolonie eng mit Kolonisation zusammen. Bei der Kolonisation handelt es sich im Kern um eine Landnahme. Die Kolonie ist daher in einem weiteren Sinne ein Personenverband in einem Gebiet außerhalb des angestammten Siedlungsgebietes. Im Bereich der Politik wird damit außerdem eine politische Abhängigkeit zum „Mutterland“ verbunden.


Die Bildung von Kolonien war und ist ein wesentliches Instrument der Machtausdehnung imperialistischer Staaten. https://de.wikipedia.org/wiki/Kolonie

Kolonialismus:Als Kolonialismus wird die meist staatlich geförderte Inbesitznahme auswärtiger Territorien und die Unterwerfung, Vertreibung oder Ermordung der ansässigen Bevölkerung durch eine Kolonialherrschaft bezeichnet. Kolonisten und Kolonialisierte stehen einander dabei kulturell in der Regel fremd gegenüber, was bei den Kolonialherren im neuzeitlichen Kolonialismus mit dem Glauben an eine kulturelle Überlegenheit über sogenannte „Naturvölker“ und teils an die eigene rassische Höherwertigkeit verbunden war. Diese Vorstellung wurde durch frühe Theorien einer soziokulturellen Evolution gestützt. Die Kolonisierung der Welt durch europäische Nationen leistete der Ideologie des Eurozentrismus Vorschub. https://de.wikipedia.org/wiki/Kolonialismus

Imperialismus:Als Imperialismus (von lateinisch imperare „herrschen“; imperium „Weltreich“; etwa bei Imperium Romanum) bezeichnet man das Bestreben eines Staatswesens bzw. seiner politischen Führung, in anderen Ländern oder bei anderen Völkern wirtschaftlichen und politischen Einfluss zu erlangen, bis hin zu deren Unterwerfung und zur Eingliederung in den eigenen Machtbereich. Typischerweise geht das damit einher, eine ungleiche wirtschaftliche, kulturelle oder territoriale Beziehung aufzubauen und aufrechtzuerhalten.Imperialismus wurde im Nachhinein auch für eine Reihe von antiken Großreichen angenommen. Der Begriff als solcher wurde im 16. Jahrhundert geprägt und galt damals als Negativbezeichnung für eine auf Militärmacht und Despotie – im Gegensatz zum Rechtsstaat – basierende Herrschaft. Als eigentliches Zeitalter des Imperialismus gilt das späte 19. Jahrhundert, wozu auch die verschiedenen marxistischen Imperialismustheorien beitrugen.

Der Begriff Imperialismus umfasst mehr als Kolonialismus und sollte vor allem von Kolonisierung getrennt werden. Edward Said sieht beim Imperialismus „die Praxis, Theorie und die Benehmensregeln eines dominierenden städtischen Zentrums gegenüber einem regierten fernen Territorium“, der Provinz. Said zufolge sei Kolonisierung nicht mehr als die Besiedlung entfernter Länder. Robert J. C. Young stimmt dem insoweit zu, als Imperialismus aus dem Zentrum operiere, als staatliche Politik, während Kolonisierung nicht mehr als Siedlungs- oder Wirtschaftsentwicklung bedeute. https://de.wikipedia.org/wiki/Imperialismus

Ich hoffe, ich konnte Dir damit helfen.


Antwort bewerten Vielen Dank für Deine Bewertung

Hallo AlphaReal.

- Kolonien sind eine Art Siedlungen, die europäische Länder wie England, Spanien, Portugal oder Frankreich (in der Zeit vom 16. Jahrhundert bis zum 19. Jahrhundert) verstärkt gründeten. Diese waren meistens vorher unentdecktes Land, welches keinem anderen Staat angehörte (abgesehen von "wilden" Stämmen). Die heutigen USA beruhen auf den "Thirteen Colonies", welche Kolonien von Großbritannien waren. Durch einen gewonnenen Unabhängigkeitskrieg entstanden dann die USA.

- Kolonialismus beschreibt den Prozess und die Zeitspanne der Kolonien. Er begann relativ mit der Entdeckung Amerikas 1492 und endete mit der Auflösung der letzten großen Kolonien im 20. Jahrhundert.

- Imperialismus kommt von Imperium und beschreibt den Prozess und die Zeitspanne, in der die europäischen Staaten anstrebten, weltweite Imperien zu werden. Das Britische Imperium besaß, dank des Kolonialismus mehr als ein Viertel der Weltbevölkerung. Der Imperialismus endete relativ genau mit dem 2. Weltkrieg.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von paulklaus
02.06.2016, 10:55

Äääääh ??? Land, das keinem (anderen Staat) gehörte ??? Unentdecktes Land ???

Ich sage nur: Indien (mehrtausendjährige Hochkultur), "kolonisiert" = unterjocht durch die Briten. Die Länder Nord-, Mittel- und Südamerikas gehörten "wilden" Stämmen wie u.a. Hopi, Maya, Azteken, Tolteken, Olmeken, Inka (Zivilisationen, von denen die ollen Römer nur träumen konnten) - - - und das Märchen von der Entdeckung Amerikas durch Columbus solltest AUCH DU allmählich ad acta legen...

pk

0

Hallo AlphaReal,

Kolonie bezeichnet eine "auswärtige Besitzung eines Staates, die politisch und wirtschaftlich von ihm abhängig ist".

Der Kolonialismus eine "auf Erwerb und Ausbau von Kolonien (1) gerichtete Politik unter dem Gesichtspunkt des wirtschaftlichen, militärischen und machtpolitischen Nutzens für das Mutterland."

Imperialismus bezeichnet das "Bestreben einer Großmacht, ihren politischen, militärischen und wirtschaftlichen Macht- und Einflussbereich immer weiter auszudehnen."

Quelle: https://www.duden.de

Ich hoffe ich konnte helfen.

Grüße, JuliusAX

Antwort bewerten Vielen Dank für Deine Bewertung

Der Kolonialismus zeichnet sich aus durch Kolonien, ein solches Bestreben als auch das Herrschen in ihnen nennt man auch Imperialismus.


Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?