"On a besoin de l’humain pour travailler avec l’IA, surtout en matière de justice, par exemple", tempère tout de suite Elise De Grave, professeure à l’UNamur et spécialiste du droit des nouvelles technologies qui enchaîne : "On essaye de robotiser la justice, mais il y a des choses qui ne fonctionneront jamais. Par exemple, si un juge a devant lui deux personnes qui sont poursuivies pour un excès de vitesse, est-ce qu’il va les condamner toutes les deux à la même sanction ? Peut-être pas, parce que dans ces deux personnes il peut y avoir un parent qui faisait un excès de vitesse pour amener son enfant mourant à l’hôpital. Dans un cas pareil, on a besoin du juge pour appliquer le droit qui prévoit des règles, mais le droit lui-même prévoit des exceptions à ces règles avec des concepts comme la force majeure ou encore la légitime défense. Un algorithme ne peut pas le comprendre à ce stade-ci."
Quand on dit que ce sont les humains qui restent aux commandes, c’est parce que ce sont eux qui écrivent ces algorithmes.
Un algorithme est donc "froid", "catégorique" et manque "de nuance". Mais qu’est-ce que c’est exactement ? "L’idée, c’est que lorsque vous allez résoudre un problème, par exemple, mettre un cadre au mur, il y a toute une série de paramètres. Prendre une foreuse, forer un truc, mettre une cheville et puis seulement mettre le câble. C’est la même chose avec un ordinateur : on doit lui expliquer étape par étape comment il doit faire. Par exemple pour conseiller de la musique, l’ordinateur doit avoir des informations sur vous et sur la musique. Quand on dit que ce sont les humains qui restent aux commandes, c’est parce que ce sont eux qui écrivent ces algorithmes. Autrement dit, la façon d’apprendre de l’ordinateur est écrite encore à l’heure actuelle par les humains. Nous pouvons encore revenir dans la boucle", explique Benoit Frénay, professeur à la Faculté d’informatique de Namur.
Pensons aux assistants vocaux, à Facebook, ou encore aux publicités ciblées. On peut dire que ce sont des intelligences artificielles faites largement "à la main" : car derrière tout cela, derrière les milliards de recherches et de requêtes, il ne faudrait pas oublier que des millions d’êtres humains à travers le monde créent, affinent, trient et corrigent. Les travailleurs du clic comme on les appelle, souvent précaires, aident les machines à apprendre et à mieux fonctionner. Cela veut dire qu’ils enregistrent et travaillent directement sur nos données. C’est moins visible et on s’en méfie beaucoup moins qu’un robot disons "incarné", mais c’est une réalité. Jusqu’où ça peut aller ?
"C’est un véritable enjeu démocratique"
Et d’ailleurs, sommes-nous toujours au courant lorsque nous sommes face à l’intelligence artificielle ? "C’est là qu’on se rend compte qu’il s’agit d’un enjeu démocratique extrêmement important" appuie Mme De Grave. "Ce n’est pas parce que c’est technologiquement faisable, même si c’est hyper séduisant, que c’est démocratiquement acceptable. Le défi ici, c’est de continuer à avoir de la visibilité sur ce qu’il se passe, de faire des normes qui serrent les pratiques."
Ce sont des questions d’actualité qui se posent avec un peu plus d’acuité depuis le début de la crise du coronavirus. Que faire de ces données de testing, de tracing ou encore celle de l’application CoronAlert ? Pourront-elles être un jour être transmises à l’Inami, par exemple ?
Normalement, tout cela est encadré par le RGPD, le Règlement Européen de Protection des Données. Qui vient nous rappeler que l’utilisation de nos données ne va pas sans contraintes légales et éthiques. En principe.
"Je ne vous cache pas que je suis extrêmement inquiète. C’est très bien de s’occuper des aspects futuristes de l’IA mais je pense qu’il faut s’occuper de l’existant. Nous avons en Belgique un outil qui s’appelle Oasis. C’est l’organisation des systèmes anti-fraude d’inspection sociale. Ça existe depuis 2002, et il est en train de muter vers un outil d’intelligence artificielle. Comment fonctionne-t-il ? Il travaille par centralisation de données de sécurité sociale, de santé, familiales, etc. Et ça va très loin puisque maintenant on l’utilise pour traquer les chômeurs qui feraient des fausses domiciliations, et donc on injecte les consommations d’eau, de gaz et d’électricité. On applique à ça des algorithmes qui vont être chargés de détecter dans cette masse de données quelles sont les personnes qui sont susceptibles de fraude. Mais on ne sait pas par qui est fait cet algorithme, on ne sait pas comment. On sait en revanche qu’il ne peut pas traduire parfaitement le droit. Donc, il crée sa propre loi, mais qui n’a jamais été débattue comme l’aurait été une loi fiscale ou sociale. Et donc il y a des personnes qui ne respectent pas le droit mais qui n’entrent pas le radar de l’algorithme, elles n’ont pas de problème. Mais il y a des personnes qui respectent tout à fait le droit mais parce que l’algorithme est peut-être biaisé, discriminatoire, raciste, sexiste ou nuisant aux pauvres, il va s’acharner sur un groupe de personnes."
Et ce "biais" démocratique a déjà pu être perçu aux Pays-Bas, regardez l’explication d’Elise De Grave :