Wird Deutschland eurer Meinung nach gezielt islamisiert?
In den letzten Jahren habe ich das Gefühl, dass sich Deutschland stark verändert hat. Immer mehr Moscheen entstehen, der Ruf des Muezzins wird erlaubt, in Kitas und Schulen wird Rücksicht auf muslimische Feste genommen, und in manchen Städten sieht man kaum noch jemanden ohne Kopftuch. Gleichzeitig wird jede Kritik daran sofort als „rechts“ oder „islamfeindlich“ abgestempelt. Für mich wirkt das nicht mehr wie normale Zuwanderung, sondern wie ein gezielter Prozess. Deshalb frage ich mich: Wird Deutschland eurer Meinung nach gezielt islamisiert?