Intelligence artificielle : un algorithme "peut être raciste, sexiste et nuire aux pauvres"

C’est la semaine belge de l’intelligence artificielle. Elle effraye ou elle inspire. Mais où en est cette technologie qui a pour objectif, en principe, de fabriquer des machines et développer des applications capables d’imiter de manière autonome l’intelligence humaine? Sa finalité : résoudre des problèmes complexes à l’aide des algorithmes.

"On a besoin de l’humain pour travailler avec l’IA, surtout en matière de justice, par exemple", tempère tout de suite Elise De Grave, professeure à l’UNamur et spécialiste du droit des nouvelles technologies qui enchaîne : "On essaye de robotiser la justice, mais il y a des choses qui ne fonctionneront jamais. Par exemple, si un juge a devant lui deux personnes qui sont poursuivies pour un excès de vitesse, est-ce qu’il va les condamner toutes les deux à la même sanction ? Peut-être pas, parce que dans ces deux personnes il peut y avoir un parent qui faisait un excès de vitesse pour amener son enfant mourant à l’hôpital. Dans un cas pareil, on a besoin du juge pour appliquer le droit qui prévoit des règles, mais le droit lui-même prévoit des exceptions à ces règles avec des concepts comme la force majeure ou encore la légitime défense. Un algorithme ne peut pas le comprendre à ce stade-ci."

Quand on dit que ce sont les humains qui restent aux commandes, c’est parce que ce sont eux qui écrivent ces algorithmes.

Un algorithme est donc "froid", "catégorique" et manque "de nuance". Mais qu’est-ce que c’est exactement ? "L’idée, c’est que lorsque vous allez résoudre un problème, par exemple, mettre un cadre au mur, il y a toute une série de paramètres. Prendre une foreuse, forer un truc, mettre une cheville et puis seulement mettre le câble. C’est la même chose avec un ordinateur : on doit lui expliquer étape par étape comment il doit faire. Par exemple pour conseiller de la musique, l’ordinateur doit avoir des informations sur vous et sur la musique. Quand on dit que ce sont les humains qui restent aux commandes, c’est parce que ce sont eux qui écrivent ces algorithmes. Autrement dit, la façon d’apprendre de l’ordinateur est écrite encore à l’heure actuelle par les humains. Nous pouvons encore revenir dans la boucle", explique Benoit Frénay, professeur à la Faculté d’informatique de Namur.

Pensons aux assistants vocaux, à Facebook, ou encore aux publicités ciblées. On peut dire que ce sont des intelligences artificielles faites largement "à la main" : car derrière tout cela, derrière les milliards de recherches et de requêtes, il ne faudrait pas oublier que des millions d’êtres humains à travers le monde créent, affinent, trient et corrigent. Les travailleurs du clic comme on les appelle, souvent précaires, aident les machines à apprendre et à mieux fonctionner. Cela veut dire qu’ils enregistrent et travaillent directement sur nos données. C’est moins visible et on s’en méfie beaucoup moins qu’un robot disons "incarné", mais c’est une réalité. Jusqu’où ça peut aller ?

"C’est un véritable enjeu démocratique"

Et d’ailleurs, sommes-nous toujours au courant lorsque nous sommes face à l’intelligence artificielle ? "C’est là qu’on se rend compte qu’il s’agit d’un enjeu démocratique extrêmement important" appuie Mme De Grave. "Ce n’est pas parce que c’est technologiquement faisable, même si c’est hyper séduisant, que c’est démocratiquement acceptable. Le défi ici, c’est de continuer à avoir de la visibilité sur ce qu’il se passe, de faire des normes qui serrent les pratiques."

Ce sont des questions d’actualité qui se posent avec un peu plus d’acuité depuis le début de la crise du coronavirus. Que faire de ces données de testing, de tracing ou encore celle de l’application CoronAlert ? Pourront-elles être un jour être transmises à l’Inami, par exemple ?

Normalement, tout cela est encadré par le RGPD, le Règlement Européen de Protection des Données. Qui vient nous rappeler que l’utilisation de nos données ne va pas sans contraintes légales et éthiques. En principe.

"Je ne vous cache pas que je suis extrêmement inquiète. C’est très bien de s’occuper des aspects futuristes de l’IA mais je pense qu’il faut s’occuper de l’existant. Nous avons en Belgique un outil qui s’appelle Oasis. C’est l’organisation des systèmes anti-fraude d’inspection sociale. Ça existe depuis 2002, et il est en train de muter vers un outil d’intelligence artificielle. Comment fonctionne-t-il ? Il travaille par centralisation de données de sécurité sociale, de santé, familiales, etc. Et ça va très loin puisque maintenant on l’utilise pour traquer les chômeurs qui feraient des fausses domiciliations, et donc on injecte les consommations d’eau, de gaz et d’électricité. On applique à ça des algorithmes qui vont être chargés de détecter dans cette masse de données quelles sont les personnes qui sont susceptibles de fraude. Mais on ne sait pas par qui est fait cet algorithme, on ne sait pas comment. On sait en revanche qu’il ne peut pas traduire parfaitement le droit. Donc, il crée sa propre loi, mais qui n’a jamais été débattue comme l’aurait été une loi fiscale ou sociale. Et donc il y a des personnes qui ne respectent pas le droit mais qui n’entrent pas le radar de l’algorithme, elles n’ont pas de problème. Mais il y a des personnes qui respectent tout à fait le droit mais parce que l’algorithme est peut-être biaisé, discriminatoire, raciste, sexiste ou nuisant aux pauvres, il va s’acharner sur un groupe de personnes."

Et ce "biais" démocratique a déjà pu être perçu aux Pays-Bas, regardez l’explication d’Elise De Grave :

"Ça doit rester une ingénierie"

Enfin, l’intelligence artificielle est parfois vue comme le mal, autrement dit est-ce qu’elle pourrait devenir plus intelligente que l’Homme. Pourrait-elle être hors de contrôle à un moment donné ? "Bonne question", ironise Benoit Frénay. "Quand on a posé cette question-là à des grands spécialistes mondiaux et la réponse qu’ils ont apportée est intéressante. Pour certains oui, pour d’autres dans 10 ans, pour d’autres dans 30 ans, pour d’autres encore jamais. À l’heure actuelle, c’est tout à fait impossible de savoir si l’on va arriver à ce genre d’IA. Moi je reste attaché au fait que c’est avant tout de l’ingénierie, c’est avant tout proposer des outils qui vont nous permettre d’avancer. Et donc, quand on dit qu’il y a des problèmes avec l’IA, ce sont surtout des problèmes de mise en œuvre."

Le manque de compréhension. C’est aussi, en filigranes, ce que pointait une étude d’août 2019 qui prouvait que les entreprises belges avaient un retard considérable en matière d’intelligence artificielle. Un retard par rapport au reste du monde. Seulement 30% des entreprises avaient à l’époque adopté l’intelligence artificielle. Selon cette étude, le frein, c’était un manque de compréhension : la moitié des sondés admettaient ne pas comprendre complètement la technologie et ses applications spécifiques au sein de l’entreprise.

Alors la Belgique a-t-elle un train de retard en matière d’IA ? Et comment combler ce trou ? Regardez la réponse de nos invités :

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK