Celles qui gagnent du terrain
Photo : Petula Marquet
Si le football est considéré depuis toujours comme le sport roi, les compétitions féminines sont longtemps restées dans l’ombre du foot masculin. Pourtant, ces dernières années, les femmes gagnent du terrain dans l’univers du ballon rond, renforçant peu à peu leur visibilité et leur reconnaissance. Mais, au niveau individuel, jouer au football en tant que femme signifie souvent affronter des discriminations, des stéréotypes et d’autres obstacles. Dès lors, la pratique du football peut-elle devenir un vecteur d’émancipation pour les femmes ?