Verweiblichung Gesellschaft?
Ist euch auch aufgefallen das die deutschen Männer immer mehr zu Frauen werden? Heute gilt es in Deutschland als normal das eine Frau einen Beruf hat und in der Beziehung sogar manchmal dominanter ist.
Warum sind die Männer so u männlicher geworden?