Feminismus – die besten Beiträge

Sind Frauen undankbar?

Deutschland ist ein Paradies für Frauen, während es für viele Männer, insbesondere für Handwerker und Bauarbeiter, das genaue Gegenteil ist. In anderen Ländern hätten Männer in ähnlichen Berufen ein deutlich besseres Leben.

Warum also zeigen Frauen häufig eine undankbare Haltung und stellen immer neue teils lächerliche Forderungen, wie z.B. kostenlose Tampons, Gendern etc..?

Ist ihnen NICHT bewusst, wie gut sie es hier tatsächlich haben? Woran könnte diese Haltung/Meinung liegen?

Des Weiteren stellt sich die Frage, wie diese Meinung wieder geändert werden kann. Da der Hass der Frauen gegenüber Männer yoy stark ansteigt.

Männer fühlen sich immer mehr gesellschaftlich unter Druck gesetzt, da Frauen sich zunehmender als überlegen und als mehr wert wahrnehmen als Männer. Manche Frauen vertreten sogar die Meinung, ein Bär mit ihnen auf einer einsamen Insel sei besser als ein Mann oder das die Männer alles gute/schöne ruinieren (men Ruin everything).

Unter solchen Voraussetzungen wird ein langfristiges, harmonisches Zusammenleben unmöglich.

Warum gibt es in Deutschland diese unfassbare Undankbarkeit bzw. Feindseligkeit gegenüber Männern?

Welche Maßnahmen/Änderungen wären nötig, um eine weniger mit hass gelenkte Gesellschaft zu schaffen? Vllt Kopftuch pflicht?

Sind diese Ansichten tatsächlich so häufig verbreitet,oder handelt es sich um "Einzelfälle", die vor allem bei der jüngeren Generation auftreten?

Liebe, Leben, Männer, Deutschland, Politik, Frauen, Beziehung, Sex, Sexualität, Psychologie, Feminismus, Geschlecht, Gleichberechtigung, Hass, LGBT+

Bekommen Frauen langsam mehr Rechte als Männer?

Ich Stelle mir diese Frage schon einige Monate.

Wie ich darauf komme ?

Ich weiß dieses Bild was ich bekomme gilt nicht überall und liegt eventuell auch bei TikTok am Algorithmus.

Ich sehe bei Freunden ganz oft das Bild, dass die Frau die Hosen in der Beziehung an hat. Wenn sie sich was in den Kopf setzt und der Mann nicht damit einverstanden ist, wird es am Ende trotzdem gemacht. Wobei es aber andersrum (wenn der Mann es macht) extrem Schlimm ist.

Genauso ist es auch bei den Eltern meiner Freundin und meinen Eltern.

Also im Sinne „Es wird gemacht was die Frau sagt“

Bei meiner Freundin und mir ist es meines Erachtens ziemlich ausgewogen, trotzdem bleibt mir die Frage schon lange im Hinterkopf.

Ist es vielleicht eine Rache dafür, dass die Frauen damals viel weniger Rechte hatten wie Männer ?

Auch bei Streitigkeiten ist es meist so, dass die Frau Recht hat. Gut das ist zwischen meiner Freundin und mir genauso aber wenn sie dann irgendwann merkt „Oh er hat vielleicht doch Recht“ entschuldigt sie sich dafür und ist einsichtig.

So wie ich es momentan Fühle und Sehe wendet sich das Blatt von damals und das macht mir tatsächlich Angst.

Klar es ist schön wenn Frauen und Männer die gleichen Rechte haben und Respektvoll miteinander umgehen.

Ich hoffe ihr versteht was ich meine.

Gerne sind auch Meinungen von Frauen gewünscht.

Schönen Abend euch noch 👋🏻

Männer, Frauen, Beziehung, Feminismus, Gleichberechtigung

Meistgelesene Beiträge zum Thema Feminismus