Werden die Männer immer feministischer?

Ja 82%
Nein 18%

33 Stimmen

15 Antworten

Ja

Auch die letzten kommen langsam in der moderne an wo Menschen gleich viel Wert sind


Aiuser69  31.08.2025, 18:27

Das hat absolut nichts mit der Frage zu tun. Es geht darum ob Männer feministischer werden

Aiuser69  31.08.2025, 18:32
@Echidnaa

Nein wird sie nicht.

Du bringst Gleichberechtigung mit ein, vormulierst es aber so als hätte das eine Thema mit dem anderen etwas zu tun. Deine Antwort vermittelt so etwas wie "maskuline Männer legen kein Wert auf Gleichberechtigung" was nicht korrekt und narrativ ist.

Echidnaa  31.08.2025, 18:33
@Aiuser69

Feminismus handelt um Gleichberechtigung etc.

Wenn die Antwort nicht auf die Frage eingeht, dann melde sie für "Beitrag abseits des Themas" viel Glück!

Ja

Ich würde mich sogar als Feministen bezeichnen - und nicht nur, weil ich Vater einer Tochter bin und ich will, dass sie gleiche Möglichkeiten hat, wie jeder andere auch.

Ja

Ich hoffe, du hast dich nicht verschrieben und meinst wirklich feministischer und nicht femininer.

Ich bin der Überzeugung, wenn ein Mann eine Tochter bekommt, wird er ganz von selbst feministischer.

Denn welcher Vater würde wollen, dass seine Tochter sexuell diskriminiert wird?

Nein

Sie werden empathischer und werden vielleicht eher gesellschaftlich und juristisch in die Schranken verwiesen, da geduldeter patriarchischer Habitus der Vergangenheit nicht länger rechtskonform ist.

Ja

...und das ist auch gut so. Die kommen eben drauf, dass Partnerschaft auf Augenhöhe viel interessanter ist.