« Il faut se servir de l’intelligence artificielle comme d'un levier pour l’égalité »

« Il faut se servir de l’intelligence artificielle comme d'un levier pour l’égalité »

L'intelligence artificielle a un problème de biais. Si des algorithmes nous aident à prendre de plus en plus de décisions, leurs angles morts en matière de sexisme ou de racisme ne font que refléter les dysfonctionnements déjà présents dans notre société. Entretien avec Aude Bernheim et Flora Vincent, qui publient L’intelligence artificielle, pas sans elles ! aux éditions Belin.

Comment a évolué la place des femmes dans le milieu de l’informatique ?

Aude Bernheim et Flora Vincent : Les femmes ont été présentes dès les débuts de l'informatique. D’une part en tant que pionnières, telle Ada Lovelace qui est considérée comme la première personne à avoir écrit un programme informatique. Mais aussi et avant tout en tant que petites mains ! Les tâches de calcul mental, répétitives et fastidieuses, étaient considérées comme féminines. Il était d’ailleurs pratique de pouvoir payer cette main d’oeuvre moins cher que son équivalent masculin. Au moment de l’automatisation de ces tâches par des ordinateurs, les femmes sont passées du calcul lui même à sa programmation. L’informatique avait alors l’aura d’une discipline plutôt féminine. L’informaticienne Grace Hopper déclarait par exemple dans Cosmopolitan en 1967 : « Programmer demande de la patience et la capacité à gérer des détails. Les femmes ont des qualités "naturelles" pour la programmation informatique. » Ainsi, en 1984 aux Etats-Unis, 37 % des informaticiens sont des informaticiennes. Aujourd’hui on observe entre 10 et 15 % de femmes dans le secteur. Que s’est-il passé ? Au milieu des années 80, l'arrivée des ordinateurs personnels transforme le secteur en un domaine prestigieux et lucratif, deux facteurs qui ont tendance dans notre société à masculiniser une discipline. Les ordinateurs personnels sont marketés comme des produits pour garçons : le mythe du geek naît. Dans les lycées, des clubs d’informatique naissent, mais deviennent rapidement exclusivement pour les hommes. Les inscriptions féminines en faculté d’informatique régresse. Les femmes se retrouvent petit à petit évincées du secteur. Que conclure de cette trajectoire ? Il ne faut pas croire l’idée selon laquelle la parité viendra avec le temps. Cet exemple démontre à quel point cela est faux. Il montre aussi que l’aspect culturellement masculin de l’informatique n’est pas une fatalité. Si ce milieu a été perçu comme féminin, il peut le redevenir !

Comment des biais sexistes, racistes ou autres, peuvent-ils se retrouver dans des systèmes automatisés ?

A. B. et F. V. : Dans notre ouvrage, nous décortiquons la construction des algorithmes étape par étape, afin d’y déceler quels types de biais peuvent s’y cacher, et avec quelles conséquences. Nous en avons conclu qu’il existe un phénomène de « contagion sexiste » dans les systèmes automatisés. La première étape de construction d’une intelligence artificielle, après avoir formulé son objectif au sens large, est de le traduire en une suite d’opérations qui définissent l’algorithme. Par exemple, repérer le ou la meilleure élève.  Est-ce la personne qui a eu la meilleure note dans une matière précise ? En moyenne sur plusieurs disciplines ? La meilleure note en contrôle continu ? La personne la plus investie ? Le choix est par essence subjectif, et peut être marqué par des stéréotypes inconscients. Il constitue la première source potentielle de biais.

La seconde étape consiste à entraîner et optimiser l'algorithme. Pour cela des bases de données sont utilisées. Or, ces corpus d’apprentissage sont biaisés. Par exemple, pour recruter sur un poste technique dans une entreprise, les données historiques montrent que plus de 80 % des CV sont masculins. L’algorithme apprend alors qu’il vaut mieux privilégier des CV masculins pour ce poste, ce qui a été démontré avec un logiciel pilote d’Amazon en 2015. Joy Buolamwini, du Massachussettes Institute of Technology (MIT) a montré que dans le cas d’algorithmes de reconnaissance faciale, les bases de données ne contiennent pas assez de photos de femmes noires, ce qui rend les algorithmes moins performants sur elles.

La troisième étape concerne l'évaluation de l’algorithme. Les machines se trompent, c’est inévitable. Il faut donc choisir comment elles se trompent. Un peu comme pour un test de dépistage, il va falloir fixer des seuils. Si par exemple, on cherche à prédire quelles images contiennent des tumeurs de cancer, on peut décider que le plus important est de détecter toutes les images qui contiennent une tumeur, quitte à prédire à tort que certaines images sont des tumeurs alors que non. À l’inverse, on peut décider que le plus important est que lorsque l’algorithme prédit une tumeur, il ne se trompe quasiment jamais, quitte à passer à côté des images ambiguës. Or ce choix n’est pas anodin, si les hommes ou les femmes ne sont pas représentés équitablement dans ces populations. La dernière étape de la contagion sexiste repose sur une pratique commune du domaine, la réutilisation du code. Si une erreur ou un biais est présent au départ, elle sera propagée.

 Quelles peuvent être les effets concrets de l’automatisation de ces biais ?

A. B. et F. V. : Nous utilisons des algorithmes dans notre quotidien, partout : pour aider à trier des CV, traduire les textes, obtenir des recommandations de musique, de films… Toutes ces tâches peuvent être biaisées. Il y a le cas du logiciel d'Amazon chargé de trier des CV, dont nous venons de parler, mais il n'est pas isolé. Des publicités ciblées proposent des postes à rémunérations moins élevées à des femmes. Un logiciel de traduction va traduire un langage non genré par des stéréotypes : « A doctor » devient « un docteur » quand « a nurse » devient « une infirmière ». Au delà de l'égalité femmes-hommes, des logiciels pour prédire la récidive de personnes inculpées ont attribué à tort des scores élevés de risques de récidives pour deux fois plus de personnes noires que blanches. Tous ces exemples reflètent les biais de notre société, mais l’IA a le pouvoir de les propager à une échelle inégalée. Aujourd’hui, il n’est pas évident que tous les recruteurs, juges ou preneuses de décision soient formés à ces questions. La machine est perçue comme objective et neutre, alors qu’elle reflète simplement ce qu’elle a appris, que la société est inégalitaire. Les biais décrits ci-dessus sont ceux qui ont été rapportés, étudiés. Il est facilement imaginable que bien d’autres se cachent ou apparaîtront. Sommes-nous d’accord pour laisser un algorithme mieux reconnaître des tumeurs chez des hommes blancs que chez le reste de la population, proposer des films plutôt violents pour un garçon et romantiques pour une fille, mettre en avant des carrières dans l’informatique préférentiellement pour des étudiants que pour des étudiantes ?

Pourrions-nous utiliser l'Intelligence Artificielle (IA) pour repérer ces biais et travailler à les corriger ?

A. B. et F. V. : Nous pensons qu'il est plus facile de changer des lignes de code que des mentalités. Il faut saisir l'opportunité de la révolution algorithmique pour encoder l'égalité et se servir de l’intelligence artificielle comme d'un levier pour l’égalité. D’abord, comme outil de diagnostic : des exemples démontrent déjà la puissance de l'intelligence artificielle pour analyser à grande échelle des données sur les inégalités femmes-hommes. En 2016, un ingénieur développe un algorithme qui regarde les 100 films les plus rentables aux Etats-Unis entre 2014 et 2016. Il mesure le temps de parole et la présence à l'écran des femmes et montre que les hommes sont présents et parlent deux fois plus que les femmes. Récemment, ce même type d’approche a été utilisée sur les médias français. Le visionnage et l'écoute de 700 000 heures de programmes radio et télévisés a encore démontré que les femmes y parlent deux fois moins que les hommes. Face à ces chiffres implacables, des acteurs du domaine comme des réalisateurs et des producteurs ont décidé de s’engager et d'agir. L'intelligence artificielle peut aussi être utilisée pour créer de l'égalité. Sur Wikipédia, seuls 17 % des biographies sont consacrées à des femmes. Des initiatives individuelles, comme celle de Jess Wade, luttent contre cette inégalité de représentation en écrivant des biographies de femmes scientifiques. Mais récemment, un algorithme a été développé pour aller parcourir le net et écrire automatiquement des nouvelles biographies de scientifiques. Dans cet ensemble, 50 % sont consacrées à des femmes ! Pour aller plus loin, on peut créer des algorithmes égalitaires. Au lieu de laisser les algorithmes reproduire les inégalités, utilisons-les pour les éradiquer. On peut forcer un algorithme à proposer à poste égal un salaire égal pour les hommes et les femmes ; enrichir de CV féminins le pool de recrutement pour des postes techniques ;  créer une sorte d’algorithme de traduction pour du langage épicène… Dans le monde de l’intelligence artificielle, rien n'est impossible, pas même l'égalité.

Propos recueillis par Sandrine Samii.

 

À lire : L’intelligence artificielle, pas sans elles !, Aude Bernheim et Flora Vincent, éd. Belin, 96 p., 8,5 €

Aude Bernheim et Flora Vincent sont co-fondatrices de WAX Science, une association qui fait la promotion des sciences et de la mixité dans les sciences. 

 

Retrouvez notre dossier « Intelligence artificielle, la cour des miracles » dans notre numéro du mois d'avril 2019 (N°16), actuellement en kiosque.