Was genau bedeutet fundamentalismus?

...komplette Frage anzeigen

2 Antworten

Im allerweitesten Sinne: Irgendeine Lehre als absolut gegeben, als Fundament, anzusehen. Da viele Menschen bsw. die Lehre, dass Mann und Frau zusammenkommen müssen, damit Kinder entstehen, als absolut gegeben ansehen, gibt es wohl mehr Fundamentalisten, als man meint. Mitunter wird das Wort auch negativ verstanden, wenn etwa jemand seine fundamentalen Lehren mit allen Mitteln, notfalls mit Gewalt, verteidigt (was allerdings eher die Ausnahme ist).

Streng gläubige Richtung einer Religion

oder

Geistige Haltung, Anschauung, die durch kompromissloses Festhalten an ideologischen oder religiösen Grundsätzen gekennzeichnet ist und das politische Handeln bestimmt.

http://www.duden.de/rechtschreibung/Fundamentalismus

Was möchtest Du wissen?