RTBFPasser au contenu
Rechercher

L’ONU appelle à un moratoire sur la reconnaissance faciale et d’autres systèmes d’intelligence artificielle

L’Onu appelle à un moratoire sur la reconnaissance faciale et d’autres systèmes d’IA
15 sept. 2021 à 14:10Temps de lecture2 min
Par Belga

L’ONU a appelé mercredi à imposer un moratoire sur certains systèmes d’intelligence artificielle comme la reconnaissance faciale, le temps de mettre en place des garde-fous pour protéger les droits humains.

"Les technologies d’intelligence artificielle peuvent avoir des effets négatifs, voire catastrophiques s’ils sont utilisés sans prendre en compte suffisamment la manière dont ils affectent les droits humains", a déclaré Michelle Bachelet, la Haute-commissaire des droits humains de l’ONU.

Elle a appelé à faire une évaluation des risques que présentent différents systèmes qui s’appuient sur l’intelligence artificielle pour le droit à la vie privée ou encore la liberté de circulation et d’expression et ensuite de bannir, ou du moins de règlementer fortement, celles qui présentent les plus grands dangers.


►►► Lire aussi : Souriez, vous êtes identifiés ! La reconnaissance faciale, un filon et un danger ?


Mais en attendant que ces évaluations puissent être menées à bien, "les États devraient imposer un moratoire sur les technologies qui présentent potentiellement un grand risque", a souligné l’ancienne présidente chilienne, lors de la présentation d’un nouveau rapport de ses services consacré à ce sujet.

Dysfonctionnements de l'intelligence artificielle

Ce rapport, qui avait été demandé par le Conseil des droits humains – la plus haute instance de l’Onu dans ce domaine – s’est penché sur la manière dont ces technologies ont souvent été mises en place sans que la façon dont elles fonctionnent ou leur impact n’ait été correctement évalué.

Les dysfonctionnements de l’IA ont empêché des gens de toucher des aides sociales, de trouver un emploi ou encore ont mené à des arrestations d’innocents sur la base de systèmes de reconnaissance faciale mal entraînés et incapables de reconnaître correctement des personnes aux traits physiques africains par exemple. "Le risque de discrimination lié à des décisions basées sur l’intelligence artificielle – des décisions qui peuvent changer, stigmatiser ou nuire à une vie humaine – n’est que trop réel", a insisté Mme Bachelet.


►►► Lire aussi : Bruno Dumas : "La reconnaissance faciale a basculé du fantasme à la réalité"


Le rapport a souligné que ces intelligences artificielles sont entraînées avec l’aide d’énormes bases de données, dont la constitution se fait souvent de manière opaque. Ces bases de données elles-mêmes peuvent être mal faites, dépassées et donc contribuer à des violations des droits humains.

La reconnaissance faciale en temps réel et à distance est ainsi de plus en plus utilisée dans le monde entier, ce qui peut mener à une localisation permanente des gens. "Nous ne pouvons pas nous permettre de continuer à tenter de rattraper le train en marche en ce qui concerne l’AI et permettre qu’elle soit utilisée sans contrôle ou presque et à réparer les conséquences sur les droits humains après-coup", a insisté la Haute-commissaire, même si elle reconnaît que "le pouvoir de servir les gens de l’IA est indéniable". "Mais il en va de même de l’habilité de l’IA à nourrir les violations des droits humains à une échelle gigantesque et de façon quasi invisible", a-t-elle mis en garde.

Intelligence artificielle: JT 13/03/2021

Intelligence artificielle et discriminations de genre

Pour voir ce contenu, connectez-vous gratuitement

Sur le même sujet

Coronavirus : le moratoire terminé, l'ONSS cite à nouveau les entreprises en faillite

Reconnaissance faciale : l'organe de contrôle de l'information policière sera entendue à la Chambre sur le recours au logiciel illégal Clearview

Articles recommandés pour vous