Welches Geschlecht wird in Deutschland eher benachteiligt?
Es gibt Männer, die der Meinung sind, dass Frauen in Deutschland bevorzugt und Männer benachteiligt werden. Sie sagen dann, dass es z.B. nur für Frauen geltende Stipendien, Saunen etc. gibt.
Ich persönlich bin der Meinung, dass es diese "Vorteile" für Frauen nur gibt, da Frauen Jahrhunderte lang benachteiligt wurden. Als Ausgleich, Wiedergutmachung und eben, damit Frauen nie wieder benachteiligt werden können.
Ich sehe es nicht als Benachteiligung der Männer, wenn es etwas gibt, was nur für Frauen bestimmt ist. Ich als Mann kann ja trotzdem in die Sauna gehen.
Was haltet ihr davon? Und welcher Meinung seid ihr?