Ist Feminismus in Deutschland nötig?
Hallo, die Frage soll keineswegs diskriminieren.
Ich denke, dass die Gleichberechtigung in Deutschland bereits vor mehreren Jahren etabliert wurde und es keine geschlechtsbasierte Nachteile mehr für Frauen in Deutschland gibt. Hier beziehe ich mich vor allem auf die Schule (Frauen haben im Durchschnitt bessere Noten und somit bessere Chancen für ein Studium), Studium und vor allem Arbeit.
Gibt es denn noch konkrete Punkte, die verbessert werden sollten? Oder sollte man sich eher anderen Problemen, wie dem Klimawandel, wenden?