Deutschland ist ein Paradies für Frauen, während es für viele Männer, insbesondere für Handwerker und Bauarbeiter, das genaue Gegenteil ist. In anderen Ländern hätten Männer in ähnlichen Berufen ein deutlich besseres Leben.
Warum also zeigen Frauen häufig eine undankbare Haltung und stellen immer neue teils lächerliche Forderungen, wie z.B. kostenlose Tampons, Gendern etc..?
Ist ihnen NICHT bewusst, wie gut sie es hier tatsächlich haben? Woran könnte diese Haltung/Meinung liegen?
Des Weiteren stellt sich die Frage, wie diese Meinung wieder geändert werden kann. Da der Hass der Frauen gegenüber Männer yoy stark ansteigt.
Männer fühlen sich immer mehr gesellschaftlich unter Druck gesetzt, da Frauen sich zunehmender als überlegen und als mehr wert wahrnehmen als Männer. Manche Frauen vertreten sogar die Meinung, ein Bär mit ihnen auf einer einsamen Insel sei besser als ein Mann oder das die Männer alles gute/schöne ruinieren (men Ruin everything).
Unter solchen Voraussetzungen wird ein langfristiges, harmonisches Zusammenleben unmöglich.
Warum gibt es in Deutschland diese unfassbare Undankbarkeit bzw. Feindseligkeit gegenüber Männern?
Welche Maßnahmen/Änderungen wären nötig, um eine weniger mit hass gelenkte Gesellschaft zu schaffen? Vllt Kopftuch pflicht?
Sind diese Ansichten tatsächlich so häufig verbreitet,oder handelt es sich um "Einzelfälle", die vor allem bei der jüngeren Generation auftreten?