Souriez, vous êtes identifiés ! La reconnaissance faciale, un filon et un danger ?

Cet hiver, il y a le virus et le froid : les visages sont emmitouflés derrière les masques et les écharpes. Mais quand le temps s’adoucira et le coronavirus prendra le large, nous aurons à nouveau la bouille à l’air en rue, dans le métro, au boulot, au magasin, au cinéma… Et la tentation d’y tester la reconnaissance faciale refera surface.

Pour chacun de ces lieux fréquentés par le public, des entreprises proposent aujourd’hui des caméras couplées à des logiciels d’intelligence artificielle.

L’espace public, ce grand laboratoire

Ces caméras sont capables, en détectant des caractéristiques uniques à votre visage ou votre corps, de cerner votre profil. De repérer : "femme", "jeune", "noire", "avec masque buccal", "sourire aux lèvres = contente du service". Une mine d’informations pour un commerçant qui souhaiterait "mieux connaître sa clientèle", le comportement et l’humeur des clients dans son magasin et leur proposer des produits calqués sur leurs profils.

Les caméras à reconnaissance faciales sont aussi capables d’aller un cran plus loin en reconnaissant votre identité. Votre visage peut potentiellement alors être associé à un fichier de police : "Monsieur Untel, avec tel casier judiciaire" ou aux répertoires d’un commerce : "Monsieur Lambda, acheteur fréquent de fromages bio et de litière pour chat", voire "client indésirable" du magasin.


►►► Lire aussi : reconnaissance faciale : un instrument de surveillance en plein essor, convoité par les forces de l’ordre


Les développeurs de ces logiciels mettent en avant les nombreuses applications d’intérêt collectif. La reconnaissance faciale sur la voie publique pourrait permettre de retrouver rapidement une personne âgée atteinte d’Alzheimer, d’améliorer les vérifications d’identité à l’aéroport, d’identifier un terroriste "au chapeau" en fuite en ville.

5 images
A l’aéroport de Miami, une caméra à reconnaissance faciale identifie ce passager à l’entrée sur le territoire américain. © Joe Raedle – AFP – Getty Images

C’est une technologie en pleine ébullition, dont les expériences tests se multiplient au sein l’Union européenne et dont les usages se répandent hors Union.

L’EDRi appelle à l’interdire dans les Etats européens.

Le risque d’une surveillance de masse d’une ampleur inédite

L’EDRi c’est l'"European Digital Rights" association, un réseau de 44 ONG européennes qui "défendent les droits fondamentaux à l’ère du numérique et technologique".

"L’EDRi et ses membres demandent l’interdiction totale au niveau européen de l’utilisation des technologies de surveillance biométriques dans l’espace public", résume Chloé Bertélémy, conseillère politique de ce groupe de pression.

Nos données biométriques étant les données de notre corps : notre visage mais aussi nos empreintes, notre voix ou notre ADN, qui nous sont uniques et permettent de nous identifier.

Il s’agirait donc bien d’une interdiction liée spécifiquement aux lieux publics : il n’est pas question ici d’interdire l’usage de la reconnaissance faciale sur votre GSM par exemple : si vous l’utilisez, vous en êtes averti et vous y êtes consentant.

Chloé Berthélémy insiste : la collecte de données aussi sensibles que les données biométriques, leur utilisation dans l’espace public ou dans tout lieu fréquenté par le grand public (salles de concerts, centres commerciaux…) peut mener "à une surveillance de masse d’une ampleur inédite".

Deux exemples valent mieux qu’un discours

Elle donne l’exemple de la Place Flagey, à Bruxelles.

"Imaginez, si toutes les caméras de surveillance de cette place (et elles sont vraiment nombreuses) comportaient un tel logiciel. Nous pourrions être authentifiés, personnellement. La police locale pourrait savoir que vous et moi on s’est retrouvés ici et maintenant. Cela pose énormément de problèmes en termes de libertés et de droits fondamentaux."

Le droit de manifester par exemple. "C’est extrêmement problématique si vous voulez aller à une manifestation et si vous savez que vous avez de très grandes chances d’être authentifié par la police. Vous pourriez penser à deux fois avant de sortir de chez vous et aller crier votre opinion politique sur l’espace public."

Son second exemple n’a plus rien de fictif.

"La ville italienne de Côme a mis en place un système de surveillance dit 'novateur': des caméras qui repèrent des comportements d’errance sur la voie publique", explique Chloé Berthélémy.

"En fait, cela visait principalement les migrants refoulés à la frontière suisse et qui se retrouvaient à attendre dans les parcs publics. Ce système de surveillance avait été mis en place pour pouvoir contrôler leurs mouvements et les repérer. A Côme, cela a été déclaré illégal, mais malheureusement ce genre de système se développe maintenant dans d’autres villes en Italie."

L’EDRi invite aussi à regarder la façon dont la Chine a développé la reconnaissance faciale dans ses rues pour comprendre l’ampleur du danger sur nos libertés.

5 images
Des caméras de surveillance à l’entrée d’une zone de bars et restaurants à Pékin, en Chine, Etat qui fait usage de la reconnaissance faciale à des fins de surveillance de masse. © Nicolas Asfouri – AFP – Belga Images

Un outil de la discrimination ?

La plateforme met encore en avant certaines expériences menées aux Etats-Unis, pour illustrer une préoccupation : celles des erreurs.

Les algorithmes sur lesquels se basent les outils actuels de reconnaissance faciale étant façonnés par une majorité d’hommes blancs, ces machines intelligentes présentent des biais d’apprentissage qui reflètent ceux de leurs concepteurs : certaines expériences de reconnaissance faciale ont montré plus d’erreurs à l’identification des personnes noires ou des femmes.


►►► Lire aussi : Les algorithmes et leurs biais dans le viseur des mouvements anti-racistes


Une "discrimination structurelle" de ces outils qu’utilisent pourtant déjà de nombreuses polices dans le monde, avec potentiellement des conséquences dramatiques.

Une pétition européenne pour interdire

Cette plateforme, avec 12 associations dans 5 Etats européens, a dès lors lancé ce mois de janvier une "initiative citoyenne européenne" pour interdire l’utilisation des données biométriques dans l’espace public.

Une "initiative citoyenne", c’est une procédure qui peut permettre à des citoyens d’amener leur proposition de législation devant les institutions européennes. Une condition parmi d’autres : réunir sous leur proposition un million de signatures d’Européens dans un délai de 12 mois.

L’EDRi espère que les élus s’empareront ainsi plus fermement du problème et colmateront la brèche légale dans laquelle se glissent de plus en plus d’expériences test dans les Etats européens.

Interdire… Ou cadrer ?

Dans les bureaux de sa start-up Datakalab à Paris, Xavier Fischer ne nie pas le malaise du moment.

Il constate un flottement entre ce qui est permis et ce qui se fait vraiment. Une marge entre cette technologie en bouillonnement, aux innombrables possibilités inexplorées, ce filon pour les entreprises européennes comme la sienne… Et des lois en décalage.

"Aujourd’hui en Europe, la technologie se développe dix fois plus vite que la loi… Alors notre mission, en quelque sorte, en tant qu’entrepreneurs qui développons sur ce sujet, c’est d’anticiper le cadre légal : de réfléchir nous-mêmes à quels usages de nos technologies seraient bons ou pas bons. On avance vite avec la technologie, et puis on recule pas mal avec l’éthique qu’on cherche à amener dans tout ça".

Une situation qui n’est pas idéale, dit Xavier Fischer.

"Il ne faut pas que ce soit nous, mais bien le législateur, le grand public, qui décide ce que l’on peut faire. Aujourd’hui, il y a bien des instances de contrôle (en Belgique, l’Autorité de Protection des Données, ndlr) mais elles examinent a posteriori ce qui a été développé et qui est déjà en production. Nous voudrions que tout cela soit ouvertement débattu, pour qu’on sache d’emblée où l’on peut aller ou non."

Repérer les émotions, compter les masques

Des tâtonnements, le CEO de Datakalab en a connus, en quatre ans de Start-Up.

Son équipe travaillait initialement sur un programme de reconnaissance des émotions sur le visage d’un interlocuteur filmé. "Cela permet de voir à quel moment l’interlocuteur a préféré le contenu qui lui a été présenté. Mais cette technologie-là, on l’a complètement arrêtée. Parce que technologiquement, c’est très compliqué de comparer les émotions d’une personne par rapport à une autre. Et puis on a trouvé ça un peu invasif."

Un caractère "invasif" que le Règlement Général sur la Protection des Données (RGPD), en vigueur depuis 2018, n’aurait vraisemblablement pas toléré. Les données biométriques sont considérées par ce règlement européen comme des données "sensibles", à protéger. Leur collecte, leur traitement, leur usage dans l’espace public est cantonné à de rares exceptions.

Plus récemment, au printemps dernier, la Start-Up a installé dans certaines stations de métro de Paris et certains marchés de Cannes des caméras dotées d’un logiciel qui repère les masques sur les visages, dans la foule. L’objectif : déceler où et à quelles heures le masque est le moins porté, pour concentrer les actions de promotion du masque sur ces lieux et moments là.

5 images
Des caméras de surveillance évaluaient l’obligation de porter le masque dans certaines stations du métro de Paris, jusqu’à la suspension de l’initiative. © Martin Bureau – AFP – Belga images

Xavier Fischer insiste : il n’était pas question d’utiliser notre technologie pour sanctionner les passants, comme cela s’est fait aux Etats-Unis, mais uniquement pour les sensibiliser. Et "nous étions conformes à la législation européenne du RGPD : on est allé jusqu’à créer un système pour être certain que l’on ne collecte aucune donnée personnelle sur les gens. On ne garde que des statistiques."

L’expérience a néanmoins été suspendue cet été par l’autorité de contrôle française, la Commission Nationale de l’Informatique et des Libertés, qui a mis en avant l’impossibilité pour les passants de s’opposer à cet usage de leur image, n’en ayant pas conscience.


►►► Lire aussi : Les Etats-Unis en tête de la course à l’intelligence artificielle, la Chine en marche, l’Europe à la traîne


Dans ce flou, les entreprises européennes tâtonnent, glisse Xavier Fischer, alors même que la concurrence, chinoise notamment, développe ses produits sans grande arrière-pensée et les propose à la vente… Au sein du marché européen.

"Un moratoire, le temps de débattre"

Des ONG, des développeurs. L’Union européenne reçoit ainsi des demandes pressantes de légiférer davantage et rapidement sur les technologies de reconnaissance faciale, les uns pour demander d’interdire, les autres de cadrer.

Et ce débat s’ouvre effectivement, dans les Institutions européennes. La Commission européenne a publié l’an dernier son "livre Blanc de l’intelligence artificielle", où elle attire l’attention sur les risques liés à la constitution des algorithmes et aux usages des données biométriques. Elle y annonce ceci :

"Conformément aux règles de l’Union en vigueur en matière de protection des données et à la charte des droits fondamentaux de l’UE, l’Intelligence Artificielle ne peut être utilisée à des fins d’identification biométrique à distance que lorsque cette utilisation est dûment justifiée, proportionnée et assortie de garanties adéquates. Afin de répondre aux éventuelles inquiétudes, du point de vue de la société, quant à l’utilisation de l’IA à de telles fins dans les lieux publics et d’éviter toute fragmentation du marché intérieur, la Commission lancera un vaste débat européen sur les circonstances particulières, le cas échéant, qui pourraient justifier une telle utilisation, ainsi que sur les garanties communes à mettre en place".

Ce débat a investi le Parlement européen.

Sophie in 't Veld y suit de près ces questions, en tant qu’Eurodéputée du groupe politique Renew, en Commission parlementaire des libertés civiles, de la justice et des affaires intérieures.

Je trouve très inquiétant que ces technologies soient utilisées aujourd’hui, y compris par des polices en Europe, sans base légale, sans débat public, sans débat politique, sans responsabilité politique

5 images
Sophie in 'i Veld participe aux débats législatifs sur la reconnaissance faciale au niveau européen, comme Eurodéputée du groupe Renew. © Andreas Solaro – AFP- Belga Images

L’Eurodéputée insiste d’entrée de jeu : "les expériences de reconnaissance faciale menées aujourd’hui dans l’union n’ont pas de base légale. Elles ne sont pas conformes au RGPD", même celles qui sont initiées des services de police eux-mêmes. Il ne s’agit donc pas, insiste l’Eurodéputée, d’une absence de législation européenne mais plutôt du constat que la loi n’est pas respectée.

Mais face à ce constat, dit Sophie in 't Veld, il faut effectivement réagir, compléter le cadre législatif ou mieux contrôler l’application des législations existantes.

"Je trouve très inquiétant que ces technologies soient utilisées aujourd’hui, y compris par des polices en Europe, sans base légale, sans débat public, sans débat politique, sans responsabilité politique, tandis que tous les experts ont dit qu’il fallait absolument regarder de près ce qui se passe maintenant parce qu’il y a des risques très graves pour les droits fondamentaux et les libertés."

D’un groupe parlementaire à l’autre, le positionnement varie aussi entre interdiction et champ relativement libre à l’innovation.

Il faut se donner le temps de ce débat, insiste Sophie in 't Veld. Elle est favorable à une interdiction temporaire d’utiliser ces technologies, un moratoire, le temps d’adopter un positionnement européen.

"Il faut du temps pour réfléchir et avoir ce débat public, parce que les décisions aujourd’hui ne se prennent pas sous le regard public ! Elles sont prises par des entreprises, par des fonctionnaires, à huis clos. Il y a des forces policières un peu partout dans l’Union qui utilisent ces technologies… Mais qui peut me dire QUI a pris cette décision ? Il n’y a pas assez de transparence alors qu’il s’agit ici des droits fondamentaux."

La Commission européenne, dans un brouillon de son "Livre Blanc de l’intelligence artificielle" envisageait de proposer un tel moratoire. Mais la version définitive du texte n’en fait plus mention. Signe d’une difficulté à placer le curseur entre risque et opportunités sécuritaires et économiques.

Entre danger et filon.

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK