Warum behaupten viele "Fußball" ist ein Männersport?

14 Antworten

Fußball ist ein Männersport - wenn auch einige begabte Mädchen auf dem Niveau eines Landesligaspielers im internationalen Frauenfußball gute Erfolge errungen haben. Man sollte Ihnen aber das Träumen vom Profifußball nicht verbieten. Als echte Konkurrenz zum Männerfußball wird sich der Damenfußball nie durchsetzen.

Ja, damals war es verpönt, wenn Frauen Fußball spielten! Da diese Sportart sehr körperbetont gespielt wird und man sich auch schmutzig macht, galt es damals nur als Männersport!

Aber das hat sich zum Glück ja Ende der 70er Jahre geändert. Nach und nach wurden mehr Frauenmannschaften in Vereinen gegründet! Und siehe da, der Erfolg in Deutschland gibt den Frauen Recht!

Die erfolgreichste Nation (mit den USA) auf der Erde (je 2 WM-Titeln)!

Weil es im Fußball früher nur Männer gab. Außerdem wird Fußball aufgrund seiner ruppigen Spielweise und seinem hohen Belastungsgrad, insbesondere für die Muskeln, Männersport genannt.

Ich finde, das der Frauenfußball sehr gut is, die rackern noch für den erfolg die mädels :), man merkt grad in den oberen Ligen der Herren (Bundesliga usw.) das da immer weniger von denen geleistet wird, sie aber viel mehr verdienen wie zb. die Frauen die auch in höheren Ligen spielen (die gehen auch noch nebenbei nem normalem Beruf nach!! Ich bin auch n Mann, aber mich nervt dieses "Null-Bock-gehabe" was da abgezogen wird!! -.-

lg

Viele Dinge sind in unserem Hirn verankert. Um dieses wieder raus zu bekommen oder um zu denken benötigt es sehr viel. Der Zuschauerzuspruch und die Ressonanz bei Welt und Europameisterschaften spricht da Bände. Das Bild, dass Frauen nun mal an den Herd gehören ist im Hirn der Menschheit seit den Neandertalern verankert und das ist schwer nach so langer Zeit etwas wieder zu löschen. Mir persönlich geällt der Frauen Fussball, weil er technisch sauberer ist und nicht so sehr kampfbetont.