Werden Frauen (in der westlichen Welt) von der Gesellschaft besser behandelt?
Also ich habe zu mindestens das Gefühl, dass Frauen allgemein besser und netter behandelt werden. Natürlich sieht es in Afghanistan oder allgemein in südöstlichen Länder etwas anders aus, aber hier in Deutschland und allgemein in westlichen Ländern, wie auch Nord Amerika glaube ich schon, dass Frauen im Vergleich zu Männern besser behandelt werden. Ich will jetzt auch gar nicht rum heulen und mich da beschweren, sondern möchte halt nur sagen, dass mir das aufgefallen ist. Ich weiß ja nicht ob ihr das auch so seht ihr, falls ja würde ich eure Meinungen ganz gerne mal hören. Was glaubt ihr, warum ist das so ?