L'intelligence artificielle sexiste et raciste... à cause de ses algorithmes

L'intelligence artificielle sexiste et raciste... à cause de ses algorithmes
L'intelligence artificielle sexiste et raciste... à cause de ses algorithmes - © Tous droits réservés

Les technologies sont d’emblée vues comme neutres par rapport à tous les biais qui peuvent influencer les comportements humains. Et pourtant, l’intelligence artificielle ne serait-elle pas sexiste ?

Technologie et neutralité sont des mots qui vont bien ensemble … dans nos esprits en tout cas. Mais c’est oublier qu’elles sont produites par des êtres humains. Et que les deux mondes ne sont pas étanches.

L’exemple le plus concret : comment s’appellent les assistants vocaux d’Amazon ou de Microsoft, ceux que l’on trouve sur les smartphones ou les enceintes connectées ? Alexa et Cortana.

La " femme assistante ", rien de bien nouveau

Et ce n’est pas un hasard qu’une fonction d’assistance soit associée à une femme. Ce n’est pas neuf non plus. C’est aussi le cas de la plupart des voix de synthèses des GPS par exemple.

On pourrait évidemment objecter que la voix féminine contribue à une atmosphère plus sereine et détendue. "D’un point de vue psychologique, le son de la voix féminine, conditionné par notre enfance, réfère directement à la douceur, l’écoute et la bienveillance". C’est ce que dit Michel Lejeune, professeur en sociologie de la technologie à Polytechnique Montréal interrogé par le site InfoPresse.com.

Des femmes sous-représentées en matière de technologie

Mais ce même spécialiste reconnait aussi que c’est évidemment le résultat d’un conditionnement social et culturel qui perdure parce qu’il n’est pas remis en question. Et pourquoi ne l’est-il pas ? La réponse est en amont : parce que les femmes sont sous-représentées dans les domaines technologiques.

Rachel Chagnon, directrice de l'Institut de recherches et d'études féministes au Québec, le résume comme ceci : " Parce qu’elle est principalement conçue par des hommes, l’intelligence artificielle emprunte une apparence féminine et renvoie aux métiers traditionnellement occupés par les femmes : opératrice de téléphone, secrétaire, infirmière ou enseignante, notamment. "

Un algorithme d’emblée sexiste et raciste

Ce n’est pas la seule conséquence de la surreprésentation masculine dans ce domaine. Un autre exemple qui provient d’une étude réalisée par le MIT et Microsoft, parue dans une publication spécialisée* et relayée en français par Science et Avenir, démontre que la reconnaissance faciale est plus fiable avec les hommes blancs qu’avec les femmes et les personnes de couleur.

La conclusion de l’enquête, c’est que " globalement, les hommes sont mieux répertoriés par l'algorithme que les femmes. La même tendance s'observe pour les sujets à la peau pâle par rapport à ceux dont le teint est plus foncé. Et lorsqu'on croise les discriminations raciales et sexistes, on observe les pires performances pour les femmes à la peau noire ". En cause : le choix des données qui ont été fournies à la base à l’algorithme.

Lorsqu’on sait que les services de sécurité et judiciaires aux Etats-Unis par exemple recourent à la reconnaissance faciale pour interpeller des suspects de crimes et délit, on prend conscience de gros biais technologiques. Avec donc, potentiellement, un risque d’erreurs accrus pour certaines populations.

Un sexisme toujours issu de l’humain

L’intelligence artificielle reflète tout simplement le reflet de la société. Les algorithmes sont produits par des hommes, au sens masculin du terme, et en reproduisent les préjugés. C’est donc à la base qu’il faut agir, et avant tout dans les entreprises technologiques. Problème : il faut que les femmes cessent de croire qu’elles ne sont pas faites pour ça. Les stéréotypes ont la vie dure ! 

*Proceedings of Machine Learning Research

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK