Ich möchte in dieser Frage gar nicht auf Einzelfälle, Messerstecher oder Terroristen wie ISIS eingehen, sondern auf die fundamentale Frage, aus welchem Grund eine Lehre wie der Islam, weiterhin verherrlicht und verharmlost dargestellt wird?
Jeder, der den Koran angeschnitten und sich mit den Lehren vertraut gemacht hat, sollte merken, dass der Islam nicht nur eine beiläufige Religion wie mittlerweile das das Christentum im Westen, sondern eine Lebensweise ist, die mehr einnimmt, als der Gang zur Moschee am Wochenende.
Und jeder, der sich den Koran mal näher angesehen hat, wird auf Passagen stoßen, die mehr oder weniger menschenverachtend und absolut verstoßend gegen unsere deutschen Grundsätze verfasst sind.
Dachte immer, Emanzipation, Gleichberechtigung, Meinungsfreiheit, Individualismus und Freiheit gehören zu Deutschland. Aber falsch gedacht, es ist wohl der Islam.