Intelligence artificielle : la Commission veut interdire certaines technologies dangereuses pour la sécurité

La Commission européenne a présenté mercredi ses propositions de révision des règles sur l’intelligence artificielle (IA), assortie d’interdictions pures et simples de certaines technologies et de régulations plus ou moins strictes pour d’autres. Elle envisage de passer les technologies au crible selon une évaluation pyramidale du risque. Seraient interdits les systèmes IA présentant un "risque inacceptable", c’est-à-dire ceux considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes.

Préserver le libre arbitre des humains

Il s’agit notamment des systèmes ou applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) ou encore des systèmes qui permettent la notation sociale par les États, comme c’est déjà utilisé en Chine.

Viendraient ensuite des systèmes à risque élevé qui feraient l’objet d’obligations strictes : IA dans les infrastructures de transport, dans l’éducation (notation d’épreuve d’examen par exemple), dans la sécurité des produits (chirurgie assistée par robot), tri des CV par logiciel dans les procédures de recrutement, évaluation du risque du crédit bancaire, vérification de la fiabilité des éléments de preuve pénale, etc. À noter la reconnaissance biométrique en temps réel par les autorités publiques ferait partie de cette catégorie, ce qui fait craindre à certains une surveillance de masse.


►►► A lire aussi : AI, que nous réserve l’avenir ?


Une amende jusqu’à 6% du chiffre d’affaires en cas d’infraction

Le risque "limité", soumis à des obligations spécifiques de transparence, toucherait par exemple l’information requise sur les interactions avec les chatbots (programme qui converse avec une personne). Enfin le risque minime concernerait la grande majorité des systèmes et ne serait pas soumis à de nouvelles règles. On parle ici par exemple de jeux vidéo, filtres antispam reposant sur l’intelligence artificielle, etc.

"L’un des objectifs est de fournir à chaque utilisateur une connaissance claire quand il interagit avec une machine", a exposé la vice-présidente de la Commission, Margrethe Vestager. Si une firme ne respecte pas la future législation européenne, qui doit encore entamer son parcours devant le Parlement et le Conseil (États membres), elle risque une amende pouvant aller jusqu’à 6% de son chiffre d’affaires annuel, selon la Danoise, qui est en charge de la Concurrence.

Sur le même sujet: JT 20/03/2021

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK