Wäre Deutschland ein besserer Ort, wenn es islamsich geprägt wäre?
53 Stimmen
10 Antworten
Nein
Der rückständige, frauenfeindliche und intolerante Islam hat schon viel zu viel Einfluss in Deutschland.
Religion ist Privatsache und muss es auch bleiben.
Nein
um Himmelswillen wo würde das hinführen...
Von gutefrage auf Grund seines Wissens auf einem Fachgebiet ausgezeichneter Nutzer
Psychologie
Nein
Deutschland wäre ein besseres Land, wenn es den Islam hier überhaupt nicht geben würde.
Nein
Ganz sicher nicht. Ich möchte nicht in so einer Welt leben wo die Frau keine eigenen Entscheidungen treffen darf ohne vorher mit ihrem Mann zu sprechen, sich komplett verschleiern muß und wo Mädchen nicht zur Schule gehen dürfen.
Nein
Dann wäre es erstens kein Deutschland.
es wäre zweitens eine korrupte Bananenrepublik wie die meisten islamischen Länder.