Peter vous accueille, mais c'est Ella qui passe la serpillière: l'intelligence artificielle renforce les inégalités

Speed Dating with AI - Meet the Robots at AI Days in Hamburg

© Copyright 2019, dpa (www.dpa.de). Alle Rechte vorbehalten

C’est un robot au style tout à fait impressionnant. Il s’appelle Sophia et ressemble à une jeune femme. Tout y est dans les moindres clichés, une silhouette de rêve, des lèvres pulpeuses, des yeux parfaitement dessinés et même de la poitrine. "Activée" en 2015 et développée par Hanson Robotics basé à Hong Kong, Sophia est sans nul doute un condensé de technologies de pointe mais le robot reproduit aussi des stéréotypes de genre traditionnels.  Et c’est parfaitement voulu.

Sophia, le robot développé par Hanson Robotics
Sophia, le robot développé par Hanson Robotics © AFP or licensors

À Singapour, le pays qui connait une des plus grandes densités de robots au monde, une étude universitaire a d’ailleurs démontré qu’attribuer un genre à un robot permettait de le rendre plus sympathique. Dans un webinaire diffusé sur YouTube, Laurence Devillers, professeure en intelligence artificielle au CNRS explique : "En se rapprochant de la ressemblance au vivant, on élabore cette croyance qu’on peut faire confiance et faciliter l’interaction".

Conséquence, c’est le robot policier Peter qui vous accueille à l’aéroport Changi de Singapour, le robot Robie qui livre votre le linge de lit dans votre chambre d’hôtel, mais c’est le robot Ella qui passe la serpillière ou le robot-masseuse Emma qui se charge de vous détendre. Rien ne vous choque ?

Le robot-masseuse Emma  se charge de vous détendre.
Le robot-masseuse Emma se charge de vous détendre. © AFP or licensors

Biais sexistes

"La représentation des femmes à travers ces objets est un danger de discrimination", explique Laurence Devillers, "les ingénieurs poussent à l’imitation du vivant pour qu’on soit plus attiré par la machine mais reproduisent des stéréotypes sexistes". Les robots identifiés comme des femmes effectuent ainsi des tâches ou sont représentés comme "des objets qui sont serviles, qui tiennent compagnie, encore pas très intelligents en tout cas avec peu de capacités réelles et en plus qu’on peut débrancher quand on veut".

© AFP or licensors

L’intelligence artificielle serait-elle devenue un nouveau lieu de discrimination ? Développée par l’être humain, n’est-elle pas censée reposer sur des données objectives, en l’occurrence les mathématiques ?   

"J’ai toujours pensé que puisqu’on lui donne la capacité de s’exprimer, on pouvait toujours lui donner la capacité de se présenter en disant : "Je suis une machine". Il faut remettre à sa place la machine plaide Laurence Devillers.

Pour lutter contre les déviances d’un monde artificiel trop féminisé, il faudrait donc agir dès la conception de la machine. Sauf que c’est précisément là que se situe le problème. "Quand on regarde aujourd’hui qui travaille dans l’intelligence artificielle, la part des femmes, ce n’est rien" regrette Alexandre Papanastassiou, professeur en transformation digitale à la Solvay Brussels School. "Si j’entraîne une machine avec des voix d’hommes pour qu’elle apprennent à associer la parole à du texte, c’est clair qu’il ne faudra pas s’étonner qu’elle soit plus efficace avec un homme qu’une femme."

L’intelligence artificielle renforce les inégalités

En 2019, un rapport américain n’y va pas par quatre chemins, pour ses rédacteurs l’état du secteur est tout simplement alarmant. Rédigé par l'Institut new-yorkais "AI Now" qui étudie les implications sociales de l'intelligence artificielle, on y découvre que seuls "18% des auteurs des principales conférences sur l'IA sont des femmes, et plus de 80% des professeurs d'IA sont des hommes. Cette disparité est extrême dans l'industrie de l'IA, les femmes ne représentent que 15% du personnel de recherche sur l'IA chez Facebook et 10% chez Google".

Pour les auteurs, le manque de diversité dans l’industrie de l’intelligence artificielle et les biais sexistes véhiculés dans les systèmes qu’elle construit sont d’ailleurs à considérer comme les deux faces d’un même problème. "Actuellement, les systèmes d'IA à grande échelle sont développés presque exclusivement dans une poignée d'entreprises technologiques et par un petit groupe de laboratoires universitaires d'élites. Ces espaces ont tendance à être extrêmement blancs, riches et masculins".

© AFP or licensors

Dans le rapport de l’institut "AI Now", on trouve aussi un des exemples les plus connus et qui illustre le grave problème de diversité que traverse l’intelligence artificielle. Les faits se sont déroulés chez Amazon. L’entreprise américaine avait décidé d’utiliser un outil de recrutement expérimental pour trier les CV des candidats. En utilisant ses bases de données passées, Amazon espérait que l’outil d’analyse serait en mesure d’identifier les candidats qualifiés en comparant les curriculums vitae des recrutements précédents.

Une enquête menée en 2018 par des journalistes de Reuters  a démontré que l’algorithme disqualifiait systématiquement les candidatures contenant le mot "femme". "Le fait qu’on dise qu’on avait été par exemple présidente d’un club d’échecs féminin, d’office votre candidature n’allait pas être traitée car le mot féminin était dans le texte" complète Alexandre Papanastassiou, professeur en transformation digitale à la Solvay Brussels School.

Après avoir découvert ce biais, les ingénieurs d'Amazon ont tenté de résoudre le problème en ordonnant au système de traiter ces termes de manière "neutre".  Mais "la discrimination fondée sur le sexe était trop profondément ancrée dans le système et dans les pratiques d'embauche passées d'Amazon, pour être déracinée en utilisant une approche purement technique.", décrit le rapport "AI Now". La société a finalement dû abandonner l'outil.

© AFP or licensors

Qui contrôle l’intelligence artificielle ?

À l’heure où l’intelligence artificielle joue un rôle de plus en plus important dans nos vies, "des domaines intimes comme notre santé, notre sécurité, notre éducation", le rapport de l’institut "AI Now" conclut : "Il est essentiel que nous puissions évaluer la manière dont ces systèmes discriminent certaines personnes, car ils influencent déjà la vie de millions de personnes".

Alors, qui contrôle l’intelligence artificielle ? "On ne les évalue jamais, c’est une catastrophe sans nom !" Alexandre Papanastassiou poursuit "c’est assez perturbant quand vous y pensez car quand vous demandez un crédit, on analyse vos données médicales, et l’algorithme de la banque n’est pas soumis à un audit alors que ça peut avoir un impact sur l’octroi de votre crédit. Mais à l’inverse chaque année, des entreprises sont auditées de façon indépendante par des boîtes spécialisées qui rédigent chaque année un rapport, alors qu’elles n’ont pas vraiment d’impact sur notre quotidien."

Le rapport de l’institut "AI Now" va dans le même sens, "des tests rigoureux devraient être exigés tout au long du cycle de vie des systèmes d'IA dans les domaines sensibles. Des audits indépendants et une surveillance continue sont nécessaires pour tester les biais, la discrimination et d'autres préjudices."

Tout le monde s’accorde sur un point, le moment est critique pour l’intelligence artificielle qui doit décider de façon urgente d’introduire un code de bonne pratique. "Singapour est fort en avance et se pose des questions depuis 2013, il y a même un travail qui se fait du point de vue législatif sur les critères à utiliser par le législateur pour que l’utilisation des technologies soit éthique", explique Alexandre Papanastassiou.

Certaines entreprises se sont aussi lancées dans la publication d’un outil d’audit d’Intelligence artificielle pour en vérifier notamment les biais sexistes ou les rendre plus étiques mais elles restent minoritaires.

Aujourd’hui en Europe, 6 scientifiques ou ingénieurs sur 10 sont des hommes selon les dernières données d’Eurostat.
Aujourd’hui en Europe, 6 scientifiques ou ingénieurs sur 10 sont des hommes selon les dernières données d’Eurostat. © AFP or licensors

"Il n’y a pas de cerveau bleu ou rose en informatique"

L’autre grand chantier consiste à changer les pratiques d’embauches. Interrogée sur ce sujet lors d’une conférence, Isabelle Collet, auteure de "Les oubliés du numérique" rappelle en boutade : "Il n’y a pas de cerveau bleu ou rose en informatique. Dans la nouvelle sphère digitale qu’on est en train de se construire, on manque de la moitié des talents".

L’informaticienne et professeure à l’université de Genève plaide dès lors pour un recrutement proactif des femmes "il faut d’une part qu’on leur montre que l’école ou le métier les attendent et puis il faut aussi faire des cours sur le genre aux garçons et aux filles et qu’ils comprennent tous qu’il y a des freins qui se mettent spécifiquement sur le chemin des femmes. Il faut leurs dire que quand on donne un coup de pouce aux femmes, ce n’est pas que de la discrimination positive, c’est pour rattraper une censure sociale qui se construit depuis l’enfance ".

Aujourd’hui en Europe, 6 scientifiques ou ingénieurs sur 10 sont des hommes selon les dernières données d’Eurostat. Et la part de femmes chute encore plus lorsqu’il s’agit des filières technologiques.

Intelligence artificielle: des juges robots en Chine

Inscrivez-vous aux newsletters de la RTBF

Info, sport, émissions, cinéma...Découvrez l'offre complète des newsletters de nos thématiques et restez informés de nos contenus

Articles recommandés pour vous