Feminismus Frau Arbeit Zwang gut oder schlecht?
Kurz vorab: Ich hoffe ihr könnt meine Ansichten verstehen, auch wenn sie nicht euren Ansichten entsprechen. Und ich hoffe auch, dass ich keinen Hate bekomme ♡
Was haltet ihr vom Feminismus?
Meine Meinung:
Ich finde es gut, dass sich Leute dafür eingesetzt haben, dass Frauen auch die Chance haben, eigenes Geld zu verdienen und auch in höheren Positionen zu arbeiten.
Allerdings kommt es mir so vor, dass den Frauen heutzutage keine Wahl gegeben wird, ob sie das überhaupt wollen, sondern heutzutage müssen Frauen arbeiten gehen, ob sie wollen oder nicht (außer sie finden einen Mann, der es "erlaubt") und das finde ich problematisch.
Ich hätte es besser gefunden, wenn Frauen selbst aussuchen dürfen, welchen Platz sie in dieser Welt einnehmen, ob sie gerne zuhause sich um alles kümmern möchten, oder ob sie lieber ihr eigenes Geld durch Arbeit verdienen möchte.
Heutzutage ist es aber für viele Frauen nicht mehr möglich, zuhause zu bleiben und sich um Kinder, Haus und ggf. Tiere / Garten zu kümmern, da oftmals das Geld nicht ausreicht oder der Mann nicht damit einverstanden ist.
Und das ist für alle Frauen, die das frühere Rollenbild bevorzugen, sehr schade.
Ich bin gespannt auf eure Meinungen ✌️