Wie definiert ihr Feminismus, und findet ihr ihn wichtig?
Hallo,
Mich interessiert, wie Menschen über Feminismus, also die Gleichstellung von Mann und Frau (nicht die Bevorzugung von Frauen) denken. Wie würdet ihr Feminismus definieren? Habt ihr euch mit Feminismus auseinandergesetzt?
Denkt ihr, Feminismus ist wichtig für unsere Gesellschaft? Nicht nur in Europa, sondern weltweit.