Une mise en lumière de l’influence des algorithmes et un accent porté sur l’importance d’une mobilisation plus large des femmes politiques pour construire une intelligence artificielle véritablement inclusive.
L’intelligence artificielle (IA) s’impose aujourd’hui dans tous les domaines, du travail aux loisirs, en passant par la santé et la politique. Pourtant, les bases de données qui l’alimentent restent marquées par des biais historiques, affectant notamment la représentation des femmes en politique. Si certaines initiatives émergent pour encadrer ces technologies et limiter ces biais, elles demeurent insuffisantes face à l’ampleur du défi.
L’IA, autrefois perçue comme un outil réservé aux spécialistes, s’est aujourd’hui immiscée dans tous les aspects de la vie quotidienne, modifiant profondément les processus de recrutement, les interactions sur les réseaux sociaux et même les dynamiques de pouvoir. Cependant, son développement repose sur des bases de données historiques biaisées qui, si elles ne sont pas corrigées, perpétuent des inégalités structurelles et influencent les représentations sociales.
« Le développement de l’IA repose sur des bases de données historiques biaisées qui, si elles ne sont pas corrigées, perpétuent des inégalités structurelles et influencent les représentations sociales. »
Dans le domaine politique, les biais algorithmiques ont un effet direct sur la visibilité et l’image des femmes. Les mécanismes d’apprentissage automatique reproduisent des schémas genrés et amplifient les discriminations existantes. Parallèlement, de nombreuses femmes engagées en politique s’investissent activement dans la régulation de ces technologies afin d’en corriger les dérives et de promouvoir une IA plus éthique. Cet article examine cette double dynamique en s’intéressant, d’une part, à l’effet des biais algorithmiques sur la représentation des femmes en politique, d’autre part, à l’action des femmes politiques pour encadrer ces technologies.

Les biais algorithmiques et la représentation des femmes en politique
Les systèmes d’IA, en raison de leur apprentissage automatique par Machine Learning reposant sur des corpus de données historiques, ont tendance à reproduire les biais préexistants dans la société. Dans le domaine politique, où les femmes sont souvent moins citées et plus fréquemment décrites de manière négative que leurs homologues masculins, cette dynamique se traduit par une représentation inégale dans les contenus recommandés par les moteurs de recherche et les réseaux sociaux. Cette sous-représentation des femmes contribue à renforcer leur marginalisation dans l’espace public, créant ainsi un cercle vicieux qui perpétue les inégalités de visibilité et d’influence.
Ce phénomène d’invisibilisation algorithmique a été mis en lumière par de nombreuses études. Selon l’UNESCO, les moteurs de recherche et les systèmes d’intelligence artificielle ne sont pas neutres, car ils filtrent et hiérarchisent les informations en fonction des préférences des utilisateurs et de leur localisation. Ce mode de fonctionnement peut entraîner une distorsion de la réalité en enfermant les individus dans une pensée uniforme, continuellement renforcée par des algorithmes qui diffusent et sélectionnent pour eux les mêmes types de contenus. Comme le souligne le rapport de l’UNESCO, « un moteur de recherche peut devenir une chambre d’écho qui maintient les préjugés du monde réel et enracine davantage ces préjugés et stéréotypes en ligne ». Ainsi, ces technologies accentuent non seulement les biais existants, mais restreignent par ailleurs la diversité des perspectives accessibles aux utilisateurs.
De l’invisibilité à la stigmatisation
Les algorithmes de traitement du langage naturel et d’analyse de sentiment, largement utilisés dans la presse et sur les réseaux sociaux, tendent, à orienter l’image des femmes politiques vers des critères liés à leur apparence ou leur vie privée, tandis que les hommes sont plus souvent associés à leurs compétences professionnelles et à leurs qualités de leadership. À titre d’exemple, Marlène Coulomb-Gully, chercheuse en communication, souligne que, « sur un plan plus qualitatif, les femmes sont plus que les hommes caractérisées par leur apparence physique, leur âge et leur situation familiale : biologisées, elles sont ainsi renvoyées à leur supposée “nature”. Elles sont en outre fréquemment identifiées par leur seul prénom, y compris s’agissant de femmes en situation professionnelle et de responsabilité : il y est question de “Marine”, “Ségolène” ou “Najat”, mais plus rarement de “François”, “Édouard” ou “Emmanuel”. Or, si l’usage du prénom est de règle dans l’espace privé, son usage dans l’espace public contribue à décrédibiliser les femmes ». Ces constats illustrent la manière dont les biais de genre, renforcés par une utilisation non avertie des technologies modernes, perpétuent des stéréotypes et limitent la reconnaissance des femmes dans l’espace public.
« Les femmes politiques françaises ne se contentent pas d’observer l’IA comme un phénomène extérieur à la sphère politique, elles la questionnent sous des angles qui reflètent leurs combats sociétaux. »
La polarisation des débats en ligne
Si les femmes politiques sont moins visibles, moins valorisées et davantage exposées à des campagnes de dénigrement que leurs homologues masculins, cette dynamique est exacerbée par les algorithmes de recommandation, qui privilégient les contenus générant un fort engagement et amplifient ainsi les discours polarisants et discriminants. Une étude de Cécile Guerin et Eisha Maharasingam-Shah, publiée en octobre 2020, sur les abus envers les candidats politiques, révèle que les femmes sont beaucoup plus susceptibles d’être victimes de violences sur X que les hommes : « Les messages abusifs représentaient plus de 15 % des messages adressés à chaque candidate analysée, contre seulement 5 à 10 % pour les hommes. » En outre, cette dynamique de dévalorisation des femmes en politique est amplifiée par un environnement numérique où elles sont souvent « effacées » et exposées à des stéréotypes de genre. Ce phénomène contribue à une violence sur Internet qui devient de plus en plus banalisée et, dans certains cas, attractive. Ces mécanismes de discrimination algorithmique ont des répercussions directes sur les parcours politiques féminins, dissuadant certaines femmes de s’engager et biaisant la perception publique de leurs candidatures.
Dévalorisation des candidatures féminines
Au-delà de leur effet dissuasif, ces biais contribuent à dévaloriser les candidatures féminines, en orientant négativement la perception publique. En effet, un traitement médiatique défavorable, amplifié par l’IA, peut influencer directement les résultats électoraux et les nominations. Des recherches menées sur les élections américaines et européennes montrent que les candidates sont davantage exposées à des campagnes de désinformation en ligne que leurs homologues masculins, ce qui affecte la perception des électeurs. Sur le réseau social X, « soixante-dix-sept millions d’utilisateurs américains ont vu passer en moyenne trois cents fake news dans leur fil d’actualité », selon Théo Péroz et Thomas Huchon. Ces fausses informations visent souvent des personnalités féminines, comme Kamala Harris, dont le programme a été la cible principale de cette désinformation. L’ampleur de cette manipulation en ligne, amplifiée par les algorithmes, détourne l’attention des électeurs des véritables enjeux de campagne et modifie leur jugement.
Quand les femmes politiques interrogent l’IA
En renversant la perspective, l’IA est aussi façonnée par celles et ceux qui la régulent, la contestent et l’orientent. Longtemps cantonnée aux sphères techniques et industrielles, l’IA est aujourd’hui un sujet de débat politique majeur, traversé par des enjeux de culture, de travail, de souveraineté et d’éthique. Pourtant, le regard des femmes politiques sur cette technologie ne se réduit pas à une posture défensive ou régulatrice, il révèle parfois une véritable volonté de donner à l’IA une dimension plus inclusive et d’en faire un levier de transformation sociale.
À l’ère de l’IA générative, les œuvres des artistes, écrivains et journalistes sont analysées, assimilées et reproduites par des modèles d’intelligence artificielle, souvent sans leur consentement. Dans ce contexte, des figures politiques telles que Catherine Morin-Desailly attirent l’attention sur les risques associés. Entre innovation technologique et protection des créateurs, comment trouver le juste équilibre ? Membre de la commission de la culture au Sénat, elle souligne que « l’IA doit être fiable et éthique et respecter les valeurs européennes. Ces technologies peuvent constituer une source de grands progrès, mais elles peuvent aussi être dangereuses » (Sénat, 2023). Cette déclaration reflète une vision plus globale, selon laquelle « l’IA n’est ni bonne, ni mauvaise » (Sénat, 2023), et il revient aux législateurs de mettre en place des cadres juridiques afin de guider le développement de l’IA dans une direction éthique.
« Ces mécanismes de discrimination algorithmique ont des répercussions directes sur les parcours politiques féminins, dissuadant certaines femmes de s’engager et biaisant la perception publique de leurs candidatures. »
Dans un autre domaine, celui du travail, les algorithmes de recrutement sont souvent présentés comme des outils d’objectivité, capables de rationaliser le processus d’embauche. Pourtant, les études montrent qu’ils reproduisent, et parfois aggravent, les discriminations existantes, écartant notamment les femmes et les minorités. Face à ces enjeux, la sénatrice Silvana Silvani, membre des commissions des affaires sociales et des affaires européennes au Sénat, a adopté une approche résolument proactive. Plutôt que de se limiter à la dénonciation des biais algorithmiques, elle explore les possibilités de l’IA comme un levier de justice sociale. À travers une série d’entretiens menés avec des experts, elle cherche à définir des normes contraignantes visant à assurer la transparence des algorithmes et leur conformité aux principes du droit du travail. En inscrivant cette problématique dans le débat public, Silvana Silvani ne se contente pas de plaider pour une régulation accrue, mais propose une vision de l’IA comme un outil potentiellement transformateur, à condition qu’elle soit encadrée de manière démocratique.
Si les débats sur l’IA oscillent souvent entre intérêt et crainte, certaines femmes politiques françaises adoptent un regard plus géopolitique sur cette question. Le développement de l’IA repose aujourd’hui sur des infrastructures et des modèles dominés par des géants américains et chinois. Cette dépendance technologique interroge : peut-on se contenter d’un cadre juridique national si les outils que nous utilisons sont conçus ailleurs, selon d’autres valeurs ? Clara Chappaz, secrétaire d’État chargée de l’Intelligence artificielle et du Numérique, insiste sur la nécessité de soutenir un écosystème européen d’IA, capable de rivaliser avec les GAFAM, évoquant un enjeu « civilisationnel » pour assurer notre souveraineté technologique. Son approche, qui mêle économie et souveraineté, rejoint les préoccupations plus globales de l’Union européenne sur la régulation des technologies émergentes.
De la régulation à l’action politique
Les femmes politiques françaises ne se contentent pas d’observer l’IA comme un phénomène extérieur à la sphère politique, elles la questionnent sous des angles qui reflètent leurs combats sociétaux. Qu’il s’agisse de culture, de travail, de souveraineté ou de transparence, elles placent l’IA au cœur des enjeux de pouvoir et d’inclusion. Ce positionnement est essentiel car il renverse la perspective habituelle : plutôt que de subir les effets de l’IA, ces femmes politiques montrent qu’elles peuvent en devenir des actrices majeures. Mais dans le même temps, elles restent encore trop minoritaires dans les cercles où se prennent les décisions clés concernant la régulation et le développement des technologies. Ce déséquilibre soulève la question de la place des femmes dans la définition des normes technologiques de demain. Si l’IA influence la représentation des femmes dans la société, la manière dont elles se saisissent de ces technologies dessine en retour les contours d’un avenir plus inclusif et démocratique. C’est à ce prix que l’intelligence artificielle pourra devenir un véritable outil d’émancipation et de progrès sociétal.
*Tess Mancuso est attachée parlementaire.
Cause commune n° 43 mars/avril