Haben Frauen immer Recht und Männer immer Unrecht gegen über Frauen?
Stimmt das?
Frauen immer in Recht sind egal was Männer sagen und nur Frauen unter sich recht geben ob es stimmt oder nicht aber Männer immer in unrecht sind
Wollte es mal genauer wissen ob da wirklich was dran ist
Männer,
Sex