Was bringt es eigentlich als Mann in einer Beziehung zu sein?
Ich will hier keine Frauen angreifen darum gehts auch nicht.
Frauen lieben nur das was die Männer für sie tun, aber lieben nicht den Mann an sich. Was also bringt es den Mann in einer Beziehung zu sein? Außer sex?