An die Männer: Habt ihr euch mal eines besseren belehren lassen?
Nicht nur hier, sondern generell, liest man aus Sicht der Frau ja immer wieder wie ignorant Männer seien.
Aber habt ihr mal die Erfahrung gemacht, dass man euch gesagt hatte: Das ist jetzt sexistisch, rassistisch, etc... und ihr habt euch dann wirklich gedacht: Ja da ist was dran, ich überdenke mein Verhalten.
Oder seid ihr konsequent davon überzeugt dass ihr bereits die "richtige" Meinung habt?