Ich habe eine "kleine Weltreise" gemacht und mir ist dabei aufgefallen, dass deutsche Frauen einen ziemlich schlechten Ruf im Ausland haben. Ich wurde oft damit konfrontiert, hier einige Beispiele :

In Skandinavien : Deutsche Frauen kümmern sich nicht um den Haushalt und seien männlicher als deren Männer.

Australien: Deutsche Frauen seien unfreundlich, aggressiv und launisch

England und Frankreich: Deutsche Frauen benehmen sich nicht wie es sich für eine Lady gehört. Seien das äquivalent von einem Pfadfinder. Sie haben kein Stil

Südamerika : Deutsche Frauen sind nicht weiblich. Sie seien nicht hübsch und ziehen sich wie ein Junge an. Sie haben keine schönen Körper und machen auch nichts dafür.

Spanien: Deutsche Frauen seien verklemmt. Alles bis zur Freundschaft ist okay aber darüberhinaus ist Tabu. Sollen kein Interesse daran haben sich zu binden und eine Familie zu gründen. Sexualität sei sehr ausbaufähig.

Als ich wieder an der Universität in Deutschland war bin ich kurz zum Fachbereiche der Sozialwissenschaften und habe nach einigen Studien und Büchern zu dem Thema gelesen. Der Eindruck wurde teilweise bestätigt ( nicht so genau aber Tendenzen waren zu erkennen).

Wie erklärt ihr euch das?