Reconnaissance faciale ou l'avènement du "Big Mother": "On aliène nos libertés"

Les manifestations aux Etats-Unis contre les discriminations raciales et contre les violences policières ont aussi entraîné des décisions qui n’étaient pas spécialement attendues. Deux monstres économiques américains des nouvelles technologies ont décidé de mettre en veilleuse certains de leurs logiciels les plus porteurs : ceux qui utilisent la reconnaissance faciale.

En effet, après IBM en début de semaine, c’est au tour d’Amazon de prendre position sur l’utilisation par la police américaine de Rekognition, son software qui permet l’identification des individus avec les caractéristiques de leur visage.

La police américaine louait à Amazon ce logiciel depuis plusieurs années, au grand dam des organisations de défense des droits humains aux Etats-Unis. Mais depuis la mort de George Floyd, et la colère populaire qui s’en est suivie, les arguments de ces associations semblent avoir porté. Amazon a donc décidé de retirer l'autorisation d'utilisation du logiciel.

Un logiciel "discriminant"

La puissante Union américaine pour les libertés civiles (ACLU, American civil liberties union) appelait en effet depuis deux ans Amazon à retirer l’autorisation aux forces de l’ordre d’utiliser cette technologie de reconnaissance faciale, une technologie accusée de plusieurs faiblesses, la plus problématique étant le peu de fiabilité dans la reconnaissance des visages de personnes noires ou hispaniques.

Amazon avait reconnu en octobre que, "comme toutes les technologies", la reconnaissance faciale pouvait être "mal utilisée". La méga entreprise répondait justement à un communiqué de l’ACLU, qui avait mené une expérimentation au Congrès américain.

"L’association civile pour les libertés américaines a fait le test du logiciel d’Amazon sur certains membres du Congrès américain", explique Carine Doutrelepont, professeure à l’ULB, et juriste spécialisée en droit des médias. "Le résultat était incroyable : plus d’une trentaine de députés ont été étiquetés criminels, assimilés à des criminels. Parmi ceux-ci, 37% étaient de peau colorée pour 5% de peau blanche. Amazon a contesté cela en disant que les paramètres n’étaient pas respectés. Néanmoins, il y a d’autres cas encore, et ce cas à lui seul montre la complexité de la technologie". Et si Amazon explique que les paramètres n’étaient pas respectés, cela pose tout de même la question de la transparence de ces paramètres, ajoute Carine Doutrelepont.

2 images
Reconnaissance faciale, ou l’avènement du Big Mother © ERIC PIERMONT - AFP

Le logiciel est donc soupçonné de présenter des biais, essentiellement en assimilant des personnes afro-américaines ou hispaniques à des criminels recherchés. "Les personnes de couleur sont apparemment moins facilement identifiables dans leurs caractéristiques, ou reconnaissables de façon certaine et absolue, donc il y a des risques de confusion qui sont plus importants, d’après la littérature. Si on prend le logiciel Rekognition d’Amazon, dans certains cas précis, on a eu un taux bien plus important de personnes à peau colorée qui sont assimilées à des criminels que des personnes de peau blanche", ajoute Carine Doutrelepont.

"Big Mother", la surveillance qui vous chouchoute ?

Dans le contexte de colère contre une police accusée de discriminations raciales, ces discriminations supplémentaires dues à la technologie sont donc difficiles à faire accepter par l’opinion publique.

Mais le mouvement est bien là : ce genre de logiciel tend à s’imposer de plus en plus dans l’espace public. "Il est vrai que les avantages de la reconnaissance faciale, c’est d’assurer une certaine fluidité dans l’espace public à certains égards", commente à ce propos Carine Doutrelepont. "Il est certain que de pouvoir rentrer dans un service public directement, sans présenter sa carte, ça peut paraître intéressant. Mais en même temps, on aliène au même moment nos libertés. C’est une méthode qui doit être cadrée : il faut des limites, une transparence, des garanties… Et les Etats qui l’utilisent n’ont pas de législation qui, de manière globale, assure ces garanties et cette transparence."

"En Chine ou au Royaume-Uni, les autorités veulent assurer une surveillance, une sécurité, et qui dès lors la mettent en place pour, à certains égards, suivre les individus… En Chine, les policiers ont des lunettes avec reconnaissance faciale. On nous annonce ça aussi dans certains autres pays", met en garde la juriste.

Débat de valeurs

Cette double caractéristique – plus de confort versus plus de contrôle – engendre aujourd’hui une nouvelle appellation : la "Big Mother", par analogie avec le "Big Brother" (la société de la surveillance, qualificatif issu de roman 1984 de George Orwell, rédigé en… 1953).

"Aujourd’hui, le caractère intrusif des technologies est justement adouci par ces avantages qui sont générés. C’est l’idée que le monde devient un "Big Mother" maternant : on prend les personnes pour les mettre dans des cocons de vie, tout en les amenant, sans transparence dans certains Etats, à aliéner une partie très importante de leurs libertés".

Il est donc urgent de trouver un équilibre entre libertés et confort technologique, d’autant plus que le progrès promet une diffusion des "smartcities" ou villes intelligentes, dans lesquelles tout est connecté, et où la surveillance et le contrôle sont au maximum.

Mais pour Carine Doutrelepont, une question se pose : "Est-ce vers ça que les individus veulent aller aujourd’hui ? C’est un vrai débat de valeurs et un débat qui devrait être porté au parlement." Elle rappelle les enjeux du commerce des données personnelles, "édifiant et spectaculaire". Un commerce qui monétise les caractéristiques du visage. Et avec l’engouement du public pour les tests généalogiques, même les données ADN des individus sont vendues et revendues…

On parle beaucoup aussi des données santé. Elles sont collectées par un organisme dont on ne connaît pas la consistance, c’est d’une opacité absolue

Le contrôle de ce commerce devient difficile, si pas impossible. "Il faut rappeler qu'il y a des organismes comme Clearview all qui ont récolté trois milliards de photos sur les réseaux de l’internet et ont vendu cela à la police américaine. Aujourd’hui, on parle beaucoup aussi des données santé. Elles sont collectées par un organisme dont on ne connaît pas la consistance, c’est d’une opacité absolue, les finalités du traitement ne sont pas clarifiées…" Illustration : dans certains pays, ces données sont cédées aux sociétés d’assurances, qui déterminent la couverture de leurs assurés… Une crainte déjà relayée en Belgique par plusieurs praticiens, mais peu connue des citoyens.

Par ailleurs, certains états, la Chine ou les Etats-Unis nous obligent déjà à céder des données biométriques…

Quelle peut donc être la limite ? Dans les pays de l’Union européenne, rappelle Carine Doutrelepont, il y a déjà le RGPD, le Règlement général sur la protection des données. L’Union européenne a d’ailleurs refusé jusqu’ici d’autoriser l’utilisation de la technologie de reconnaissance faciale.

La réflexion doit cependant encore mûrir, car les enjeux sont importants, explique la juriste, qui espère un débat sur une intelligence artificielle éthique pour préparer les nouveaux défis. "Ce n’est pas l’algorithme qui va décider du niveau de démocratie acceptable de la population, c’est la démocratie que nous définissons chaque jour qui va définir comment on va utiliser l’algorithme." C’est l’espoir de beaucoup de défenseurs des droits fondamentaux.

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK