Feminismus – die besten Beiträge

Bekommen Frauen langsam mehr Rechte als Männer?

Ich Stelle mir diese Frage schon einige Monate.

Wie ich darauf komme ?

Ich weiß dieses Bild was ich bekomme gilt nicht überall und liegt eventuell auch bei TikTok am Algorithmus.

Ich sehe bei Freunden ganz oft das Bild, dass die Frau die Hosen in der Beziehung an hat. Wenn sie sich was in den Kopf setzt und der Mann nicht damit einverstanden ist, wird es am Ende trotzdem gemacht. Wobei es aber andersrum (wenn der Mann es macht) extrem Schlimm ist.

Genauso ist es auch bei den Eltern meiner Freundin und meinen Eltern.

Also im Sinne „Es wird gemacht was die Frau sagt“

Bei meiner Freundin und mir ist es meines Erachtens ziemlich ausgewogen, trotzdem bleibt mir die Frage schon lange im Hinterkopf.

Ist es vielleicht eine Rache dafür, dass die Frauen damals viel weniger Rechte hatten wie Männer ?

Auch bei Streitigkeiten ist es meist so, dass die Frau Recht hat. Gut das ist zwischen meiner Freundin und mir genauso aber wenn sie dann irgendwann merkt „Oh er hat vielleicht doch Recht“ entschuldigt sie sich dafür und ist einsichtig.

So wie ich es momentan Fühle und Sehe wendet sich das Blatt von damals und das macht mir tatsächlich Angst.

Klar es ist schön wenn Frauen und Männer die gleichen Rechte haben und Respektvoll miteinander umgehen.

Ich hoffe ihr versteht was ich meine.

Gerne sind auch Meinungen von Frauen gewünscht.

Schönen Abend euch noch 👋🏻

Männer, Frauen, Beziehung, Feminismus, Gleichberechtigung

Wieso Sagen feministische Frauen das Männer Und Frauen gleich sind?

Gerade eben ne Doku gesehen! Da meinte ne Frau, Männer und Frauen wären gleich. Ich check das nicht, weil Männer und Frauen doch voll unterschiedlich sind – allein schon von der Natur her! Und wenn man das biblisch sieht, damals hatte das „Mann-Sein“ ja einen Sinn. Männer waren die Jäger, die für die Nahrung gesorgt haben. Hab mal ’ne Statistik gesehen, da sagen Forscher, dass wenn alles zusammenbricht und wir wieder wie früher leben müssten, bei 80 % der Männer dieser Jäger-Instinkt immer noch da wäre.

Männer haben mehr Muskeln, mehr Stärke, mehr Fett, das den Körper vor Kälte schützt – ist einfach so. Frauen dagegen hatten früher die Aufgabe, Kinder zu bekommen, auf sie aufzupassen und Nahrung wie Obst zu sammeln. (Natürlich sollte es biologisch gesehen so sein, natürlich gibt es Männer, die von Frauen Schläge kassieren, aber solche nenne ich nicht Männer, weil – nicht falsch verstehen – wie kann ein Mann, der 10-mal mehr Testosteron hat, mehr Stärke, mehr Muskeln, von einer Frau kassieren? Aber andere Frage.)

Und dann sagt die Frau in der Doku, Männer und Frauen seien gleich? Ich versteh das nicht. Männer und Frauen sind doch verschieden, schon von der Natur her, und das hat doch auch damals alles Sinn gemacht! Was sagt ihr dazu? Eure Meinung?

Bild zum Beitrag
Männer, Mädchen, Deutschland, Politik, Frauen, Beziehung, Psychologie, Feminismus, Geschlecht, Gleichberechtigung, Jungs, Partnerschaft

Meistgelesene Beiträge zum Thema Feminismus