Was versteht man unter "westliche Hegemonie"?

... komplette Frage anzeigen

2 Antworten

Ist es nur der Glaube der USA und Westeuropa, sie können Probleme vor allem im nahen Osten regeln??

Das kommt schon gut hin.

Unter Hegemonie versteht man "Vorherrschaft, Vormachtstellung, Überlegenheit".

Folglich ist mit "westlicher Hegemonie" gemeint, dass 'der Westen' (also USA, Deutschland, etc.) sich überlegen fühlen, die Vorherrschaft übernehmen und bestimmen wollen, wo es lang zu gehen hat.

"Wir bringen euch unsere Demokratie!" ist so ein Hegemonial-Gedanke. Denn er impliziert, dass derjenige, der es ausspricht, sich überlegen fühlt und "weiß", was das Beste für die Anderen ist; ganz egal, ob die das selbst so sehen oder nicht.

Antwort bewerten Vielen Dank für Deine Bewertung

Es ist die Tatsache gemeint, dass die Länder, die als westlich bezeichnet werden weit mehr Einfluss in der Welt haben als nicht-westliche Staaten.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von fipsi123
03.11.2016, 11:40

Danke

0

Was möchtest Du wissen?