L'éthique dans l'Intelligence artificielle : les lois européennes, un frein à l'innovation ?

L'Union européenne met l'éthique de l'intelligence artificielle au centre de ses ambitions par le biais de son Livre blanc. Les enjeux y sont nombreux : remplacement des travailleurs par des machines, protection des données personnelles, responsabilité en cas d'incident, algorithme discriminatoires,… Comment légiférer l'intelligence artificielle sans freiner l'innovation ?

En ce qui concerne la transition numérique, l’Europe doit clairement améliorer son jeu.

Le potentiel des technologies comme l'IA intéresse l'UE depuis quelques années qui y investit fortement. Le 2 octobre 2020, Ursula Von der Leyen a indiqué dans un discours lors du Conseil Spécial que l'intelligence artificielle fait parti des trois priorités dans le cadre de leur stratégie pour une économie numérique et résiliente : "En ce qui concerne la transition numérique, l’Europe doit clairement améliorer son jeu”. Les deux autres étant les données ainsi que les infrastructures.


►►► Lire aussi : Les Etats-Unis en tête de la course à l'intelligence artificielle, la Chine en marche, l'Europe à la traîne


Le 19 février 2020, Le Livre blanc sur l'IA a été publié et met l'accent sur les droits fondamentaux des citoyens, il met en garde notamment sur les algorithmes qui pourraient être utilisés lors de recrutements. Cela pourrait générer des discriminations à l'emploi. L'Europe pourrait donc devenir un régulateur mondial de l'IA.

Plusieurs rapports avaient déjà été publiés concernant cet encadrement autour de l'IA par les députés européens. Un des sujets alors sur la table était la propriété intellectuelle afin de protéger ses différents créateurs de l'IA pour éviter notamment le vol ou la duplication non autorisée de leurs créations. Un autre rapport mettait en évidence la nécessité de déterminer à qui incombe la responsabilité en cas d'accident, par exemple si un robot blesse quelqu'un. L'idée était alors de faire valoir la responsabilité civile. 

Le caractère éthique d'une IA

"Derrière la définition de l’éthique liée à la morale, le caractère acceptable d’une intelligence artificielle repose beaucoup sur la transparence de son mode de fonctionnement et sur la possibilité de prédire et d’expliquer son processus de décision, qualités indispensables pour permettre l’évaluation du système." C'est ce que déclarait Guillaume Avrin, responsable du département Evaluation de l'intelligence artificielle au laboratoire nationale de métrologie et d'essais (LNE) sur le site du LNE.

Pour lui, la responsabilité revient aux autorités lorsqu'il s'agira de mettre en place le système face aux enjeux sécuritaires éthiques "afin de s’assurer que le comportement (de l'intelligence artificielle, ndlr) corresponde à celui attendu."

Nathalie Smuha, chercheuse à la KU Leuven en matière de droit et éthique de la technologie, avec un focus en ce moment sur l’IA et le Big Data, nous partageait également sa préoccupation sur ces nouvelles réglementations qui ont pour objectifs la protection des citoyens. Notamment lorsque des juristes commencent à travailler avec des informaticiens lors de développement de systèmes utilisant l'IA. Mais la question est : "faut-il avoir une loi qui oblige les développeurs des systèmes IA à prendre cela en compte ?". 

Concrètement, ne faudrait-il pas au moment de l’élaboration de l’algorithme et des bases de données mettre des balises en amont ? Nathalie Smuha pense que cela ne sera pas le cas, tant qu’il n’y a pas d’obligation. D’autant plus que cela implique un coût supplémentaire. "Il y a bien sur des entreprises qui préfèrent ne pas le faire".

Et puis, il faut aussi mettre en place des standards de vérification "comme on fait des audits financiers dans des entreprises, il faudrait la même chose avec l’IA".

Des systèmes certifiés et contrôlés

Comme les cosmétiques ou les voitures, les futurs systèmes d'intelligence artificielle à haut risque (dans les secteurs comme la santé, par exemple) devront être certifiés, testés et contrôlés.

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, déclarait dans une interview accordée à La Libre que l'esprit du Livre blanc était que "l'Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les Etats-Unis et se rendre attractive dans la course mondiale à l'intelligence artificielle". Lui et plusieurs autres chercheurs européens et américains ont rendu un avis en ce sens, mettant en garde contre les risques d'une approche européenne trop centrée sur ses valeurs.

Une des valeurs du Livre Blanc est "l'explicabilité", c'est-à-dire comprendre les décisions que prend un système d'intelligence artificielle - pourquoi embaucher telle personne par exemple ? Sauf que cela peut réduire leur performance d'au moins 20%, toujours selon le professeur.

Avec cette focalisation sur la réglementation ou sur la gouvernance des machines elles mêmes, on oublie que ce qu'il y a d'abord à gouverner c'est l'environnement social dans lequel les machines vont évoluer

Antoinette Rouvroy, docteur en sciences juridiques de l'Institut universitaire européen est chercheuse qualifiée du Fonds de la recherche scientifique au centre de Recherche en Information, droit et Société (CRIDS) s’intéresse aux rapports entre le droit, les modes de construction et de du risque, les sciences et technologies, et la gouvernementalité néolibérale. Elle rejoint ce point de vue : "La difficulté de réguler, quand on a des dispositifs qui évoluent en temps réel et qui sont capables de voir leur propres problèmes en fonction des nouvelles données qu'ils rencontrent, c'est de savoir à quel moment vous allez évaluer, règlementer ou contraindre l'évolution de ce programme".

On peut observer un système d'intelligence artificielle à un moment donné et évaluer qu'il ne porte pas de risque (de discrimination, par exemple), cela ne signifie pas que le lendemain elle n'aura pas appris par d'autres données à devenir raciste ou misogyne. "Avec cette focalisation sur la réglementation ou sur la gouvernance des machines elles mêmes, on oublie que ce qu'il y a d'abord à gouverner c'est l'environnement social dans lequel les machines vont évoluer. Un système algorithmique c'est aussi le contexte sociotechnique dans lequel il évolue" nous explique-t-elle. 

S'il existe dans les textes un droit à la non-discrimination, encore faut-il que cette personne sache qu’un système d’IA a été utilisé avec peut-être un biais. "Il y a plein d’étapes qui ne sont pas détaillées dans la loi. Parce que si on n’a pas ces informations, on ne peut pas aller en justice" explique Nathalie Smuha.

La réglementation permet d'accroître la confiance des utilisateurs et consommateurs mais ce que je reproche, c'est que cela ne prend pas en compte les citoyens

Pour Antoinette Rouvroy, la réglementation permet d'éviter les "distorsions" de concurrence afin que tout le monde soit sur le même pied dans cette course à l'innovation : "La réglementation permet d'accroître la confiance des utilisateurs et des consommateurs mais ce que je reproche, c'est que cela ne prend pas en compte les citoyens". Pour elle, il est essentiel de demander l'avis des citoyens quant à ces nouvelles infrastructures technologies "qui façonnent nos manières d'interagir".  Cela transforme la manière selon laquelle nous sommes perçus par les industries, commerçants et gouvernements. 

Les risques de l'IA selon le Livre Blanc

Un des risques mentionné dans le Livre blanc de l'UE sur l'IA c'est l'opacité des processus de décision, les discriminations liées aux biais algorithmiques mais aussi les données personnelles qui sont un danger concernant l'invasion de la vie privée. L'union européenne cherche un équilibre entre croissance et protection. 

"La stratégie européenne garantie que ce qui va permettre le maximum de croissance et de production de valeurs, ce sont les données" confie la chercheuse. "Cette bureaucratie européenne est à ce point déconnectée qu'elle pense que la valeur se trouve dans les données, il y a un oubli de la matérialité. Il y a une inversion des préoccupations, les métiers doivent se réformer pour l'IA au lieu de mettre l'IA au service des métiers." Elle n'est pas d'accord avec l'idée que l'objectif de la régulation est d'adapter le monde pour le rendre effectif à l'innovation. Selon elle, "il faut que l'innovation soit compatible à l'environnement et au social, on essaie d'adapter le monde à une innovation dont les finalités sont indéfinies. Il n'y a pas de projet concret derrière si ce n'est l'ingouvernance, la sous-traitance de la charge gouvernée à des systèmes automatiques".

La législation européenne

Les principes éthiques de l'IA se sont développés depuis 2019 en Europe et se basent sur le rapport du groupe d’experts de haut niveau en intelligence artificielle de la Commission Européenne. Le G20 a adopté ces mêmes principes par la suite.

Les secteurs d'application de l'IA se multiplient en Europe comme la santé, l'information, la mobilité. L'instauration d'un règlement plus complexe devient alors une urgence pour que l'Europe pose ses limites. Le Livre Blanc de l'Intelligence Artificielle est le document qui va fonder la future législation européenne, il sert pour l'instant à adopter des rapports plus précis.

Il y a trois rapports existants formulés sous trois angles différents concernant les problèmes juridiques causés par l'IA.


►►► Pourquoi faut-il absolument une loi sur l'intelligence artificielle ?


Le député allemand Axel Voss a mis l'accent sur la responsabilité civile de l'intelligence artificielle dans le but de protéger les personnes privées et les entreprises par un système de responsabilité juridique. Un autre rapport du député espagnol Iban Garcia Del Blanco se concentre sur le cadre juridique que l'UE devra développer pour l'utilisation et le déploiement de l'IA. La machine contenant des algorithmes d'apprentissage devra toujours être faite et contrôlée par l'Homme. Le dernier rapport a été rédigé par le français Stéphane Séjourné : il met en avant la protection des droits de propriété intellectuelle. Cela a pour but de garantir la protection des développeurs de l'IA, qui elle, n'aura pas de personnalité juridique, le statut "d'inventeur" devant être réservé à l'humain.

Le problème, selon Antoinette Rouvroy, est qu'on a tendance à considérer qu'un des risque principal de l'utilisation intensive d'algorithmes est la disparition de la vie privée et la mise à mal du droit à la protection des données personnelles "mais ce qui est plus radicalement menacé c'est plutôt l'espace public, le fait de délibérer collectivement à propos de normes qui doivent régir la collectivité". Le risque majeure ce n'est pas l'usage volontairement mauvais d'une IA, mais c'est "l'articulation entre la bureaucratie et l'automatisation, la déresponsabilisation des acteurs humains par rapport aux décisions". 

Ce qui sera bouleversant, c’est qu’on aura plus de règles, plus d’éthique et surtout plus de réglementations

Lorsque nous demandons à Nathalie Smuha ce qui pourrait bien bouleverser nos vies à l’avenir en matière d’IA : "Ce qui sera bouleversant, c’est qu’on aura plus de règles, plus d’éthique et surtout plus de réglementations. Et ça va changer l’IA aussi […] parce qu’il y a plein de soucis en ce moment". En matière de droits humains, il n’y a pas que la protection des données, insiste la spécialiste. Il y a aussi la non-discrimination, par exemple. L’intelligence artificielle a aussi un impact sur la société au niveau de la démocratie "par exemple, les algorithmes qui sont utilisés par les réseaux sociaux. Ils changent un peu notre façon de penser. Ils changent notre façon de choisir nos politiciens".

La Commission européenne devrait présenter une version finale de sa législation sur l'IA dans les mois qui viennent pour qu'ensuite le Conseil et le Parlement puissent l'approuver.

Il ne faut pas lâcher les droits fondamentaux aux bénéfices des lobbys

Finalement, l'Europe essaie de présenter les droits de l'humain comme étant un standard dans le développement d'une IA mais selon Antoinette Rouvroy, pour que la réglementation soit efficace "il faut mieux comprendre à quoi nous avons affaire et comprendre la matérialité qui nous entoure. Il ne faut pas lâcher les droits fondamentaux aux bénéfices des lobbys". C'est une particularité de l'Europe d'avoir ce soucis de ces droits économiques et sociaux. "C'est ce qui témoigne d'un attachement de la matérialité de l'environnement dans lequel on évolue et l'Europe doit réaffirmer cet attachement à l'occasion de la régulation sur l'IA.

Sur le même sujet...

JT du 13/03/2021

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK