Les footeuses de Bruxelles

Celles qui gagnent du terrain

par , et

Photo : Petula Marquet

Celles qui gagnent du terrain

Photo : Petula Marquet

Si le football est considéré depuis toujours comme le sport roi, les compétitions féminines sont longtemps restées dans l’ombre du foot masculin. Pourtant, ces dernières années, les femmes gagnent du terrain dans l’univers du ballon rond, renforçant peu à peu leur visibilité et leur reconnaissance. Mais, au niveau individuel, jouer au football en tant que femme signifie souvent affronter des discriminations, des stéréotypes et d’autres obstacles. Dès lors, la pratique du football peut-elle devenir un vecteur d’émancipation pour les femmes ?

Nouveau sur Mammouth

Pollution spatiale
Quitter la violence
Et toi, tu désertes ?
Allons-nous trop aux urgences ?