Quand les algorithmes reproduisent les stéréotypes sexistes

Quand les algorithmes reproduisent les stéréotypes sexistes
Quand les algorithmes reproduisent les stéréotypes sexistes - © Tous droits réservés

On sait aujourd’hui que les algorithmes à la base de l’intelligence artificielle sont biaisés et discriminatoires … mais un algorithme, concrètement, quésako ?  

Un algorithme détaille les tâches à effectuer par une suite d’instructions élémentaires et d’opérations logiques. Pour être utilisés par un ordinateur, ces algorithmes doivent être traduits, codés par un·e programmateur·trice afin de lui permettre de résoudre le problème à notre place. Les technologies n’ayant ni âme ni opinion, nous pouvions espérer que les algorithmes à la base de l’intelligence artificielle soient neutres par essence mais il s’avère aujourd’hui qu’ils sont loin d’être objectifs. Étant codés par des êtres humains, ils reproduisent leurs préjugés et, notamment, les stéréotypes sexistes.

Un secteur masculin

Dans leur ouvrage "L’intelligence artificielle, pas sans elles", Aude Bernheim et Flora Vincent détaillent comment cela fonctionne. Après avoir présenté la phase de construction du corpus d’apprentissage - prise en charge par le·la développeur·euse qui formalise le problème à traiter en termes mathématiques - destiné au bon fonctionnement de l’intelligence artificielle, elles nous expliquent qu’apparaissent des résultats biaisés en raison de la surreprésentation de certains groupes dans le corpus de base ou encore des préjugés plus ou moins conscients de ceux et celles qui l’ont construit. "Si la base d’apprentissage décrit une femme avec une blouse comme ‘infirmière’ et un homme en blouse comme ‘médecin’, il y a de fortes chances pour que le programme décide que la photo de la plus grande chirurgienne de France est celle d’une infirmière". Or, "Le secteur de l’intelligence artificielle est aussi masculin qu’un bar des sports le soir d’un match de Ligue 1. Moins formées, moins payées, moins promues, les femmes ne sont pas les bienvenues".

►►► Retrouvez en cliquant ici tous les articles des Grenades, le média de la RTBF qui dégoupille l’actualité d’un point de vue féministe.

Les algorithmes sont derrière tous nos objets connectés, ce sont eux qui nous suggèrent nos achats sur les plateformes en ligne, les articles à lire sur certains sites d’information, les séries qui devraient nous intéresser sur Netflix ou encore ce que l’on voit passer sur notre page Facebook. Et en parlant de Facebook …

Discrimination des femmes

Il y a deux ans, deux organes de presse américains avaient révélé que plusieurs sociétés avaient posté des offres d’emploi sur Facebook en se servant des outils de ciblage du réseau social pour que les femmes, entre autres, ne puissent pas voir leurs publications. Se servant des algorithmes de Facebook, elles procédaient ainsi à un recrutement discriminatoire sous le radar. Étant donné la nature des algorithmes d’emblée discriminatoires, ces entreprises en rajoutaient une couche pour s’assurer ne recevoir aucune candidature féminine. Et non, il ne s’agissait pas uniquement de sociétés de transport ou de déménagement mais bien de sociétés financières, de banques et autres groupes automobiles.

Suite à ce dépôt de plainte, l’EEOC (US Equal Employment Opportunity Commission) a condamné les sept sociétés poursuivies. Elle a conclu que ces employeurs avaient violé les protections des droits civiques en empêchant les femmes de voir leurs offres d’emploi sur Facebook. Cette première enquête a également mis au jour d’autres pratiques semblables et ce sont aujourd’hui des dizaines de sociétés qui sont poursuivies par l’EOOC pour discrimination dans leurs publicités ciblées sur le réseau social. En conséquence, Mark Zuckerberg s’est engagé à ce que soient revues les procédures publicitaires disponibles pour les annonceurs. Jusqu’à présent, ils avaient la possibilité d’acheter des publicités excluant les internautes en fonction de leur genre, de leur race, de leur religion, de leur origine, de leur âge, etc.

Si ces pratiques devaient devenir officiellement illégales, les algorithmes persisteront eux dans leur sexisme et autres discriminations tant qu’ils seront majoritairement codés par des hommes blancs de la classe moyenne aisée. Celui qui code intègre sa vision du monde et donc ses préjugés, qu’ils soient conscients ou non. Nous parlons donc d’un biais qui n’est pas forcément malveillant ni intentionnel.

"Il est plus facile de changer des lignes de codes que des mentalités. Ne laissons pas passer cette chance ! Transformons l’intelligence artificielle et ses concepteur·trices pour transformer toute la société", expliquent les deux autrices.

July Robert, autrice et traductrice

" Les Grenades-RTBF" est un projet soutenu par Alter-Egales (Fédération Wallonie Bruxelles) qui propose des contenus d'actualité sous un prisme genre et féministe. Le projet a pour ambition de donner plus de voix aux femmes, sous-représentées dans les médias.

 

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK