Verweiblichung Gesellschaft?

19 Antworten

Und das ist auch gut so, also ich möchte nicht als Mann mir irgendwann die Fingernägel lackieren😂 aber von der "traditionellen" Rollenverteilung halte ich nichts. Kann ich mir auch gar nicht leisten, wenn ich irgendwann eine Frau habe muss sie arbeiten, sonst wird der Teller ziemlich schnell leer bleiben. Was Dominanz angeht, so sollte es ein gesundes Gleichgewicht geben. Ich weiß dass Frauen viele 1000 Jahre gebraucht haben um gesellschaftlich eine Rolle zu spielen und eine eigene Meinung zu haben und diese auch sagen zu dürfen. Und wir sind auch heute noch nicht gleichgestellt. Aber es bringt uns als Gesellschaft nichts wenn die Frauen sich an uns quasi rächen für die Unterdrückung in der sie lange gelebt haben. Das ist jetzt nahezu Vergangenheit, damit sollte dass jetzt auch erledigt sein und nicht in die andere Richtung gehen.

Wäre es denn ein Problem wenn es umgekehrt sein würde? Die Welt verändert sich und wir lernen uns alle zu akzeptieren, deswegen ist es egal wer Arbeitet wer Zuhause auf das Kind aufpasst oder den Haushalt macht.

Hallo ashraf69iran,

es ist möglich - und auch beobachtbar - dass sich in unserer Gesellschaft in Folge einer längeren Aufklärung die Archaik dominierender Männer gegenüber Frauen verringert - aber die Archaik, dass sich beide biologischen Geschlechter noch in Bezug auf Fortpflanzung diskriminieren, weiterhin besteht.

So mögen wir beobachten, dass sich die Geschlechter z.B. im Beruf oder in einer häuslichen Rollenverteilung angleichen. Wir mögen dann auch vermehrt beobachten, dass auch Frauen dominieren können - vielleicht immer vorher eher untergegangen, aber doch präsent.

Wie beobachten auch, dass viele Männer ihre weibliche Dimension entdecken und im Leben wirken lassen - auch dass einige Männer sich eher als Frau fühlen und zur Frau werden.

Wir werden sehen, wie sich unsere Gesellschaft noch entwickelt - und welche historischen oder archaischen Paradigmen noch verschwinden.

Mit vielen lieben Grüßen
EarthCitizen

Woher ich das weiß:eigene Erfahrung

Werden hier jetzt Äpfel mit Birnen verglichen? Beides Obst - und doch verschieden.

Männer die damit klar kommen das Frauen nicht mehr einzig Haushaltshilfe, billige Arbeitskräfte und Gebärmaschinen sind? Die sind nicht "unmännlich".

Männer, die damit gut klar kommen auch weibliche Arbeitskollegen zu haben... egal in welchem Job? Die sind nicht "unmännlich".

Frauen die wissen wie sie sich behaupten können in der Welt - auch ohne Mann an ihrer Seite? Die sind keine Mannsweiber oder eine "Gefahr" für das Selbstbewusstsein eines Mannes.

Männer werden nicht "unmännlicher" durch die Selbständigkeit / einen beruflichen Werdegang einer Frau

realsausi2  10.03.2021, 00:39
eine "Gefahr" für das Selbstbewusstsein eines Mannes.

Nun, für den Fragesteller offensichtlich schon. Eine dünne Schale knackt halt schneller.

1

Das halte ich für ein Vorurteil. Und welchen Beweis gibt es hierfür?

Berufe hatten Frauen schon im Mittelalter. Außerdem ist es eher besser, wenn man mehr Verdiener hat und auch Frauen -genauso wie Männer- ihren Interessen nachgehen können und ihre Stärken der Gesellschaft zur Verfügung stellen (sowohl auf dem Arbeitsmarkt als auch mit Hobbys, z.B. ihre Kreativität fördern).

Und ob eine Frau oder ein Mann dominant ist, hat nicht unbedingt etwas mit dem Geschlecht zu tun, sondern mit der Persönlichkeit.

Bei solchen Aussagen handelt es sich mehr um Mythen als um Fakten oder Wahrheiten.