Hallo,
Ich habe eine Frage für diejenigen unter euch, die sich etwas besser mit den einzelnen Richtungen des Feminismus auskennen, als ich.
Und zwar: Wie nennt man die Art des Feminismus, die anstrebt, Gleichberechtigung dadurch zu erzielen, dass man Geschlechterrollen komplett auflöst? Also, dass man keine sozialen Unterschiede mehr zwischen Mann, Frau und nicht-Binären Personen macht, und dadurch auch keine Differenzen in gesellschaftlichen Rollen entstehen?
Es geht hierbei nicht um die biologischen Geschlechter, lediglich um Geschlechtsidentität, soziales Geschlecht, und gesellschaftliche Rollenbilder.