Le logiciel est donc soupçonné de présenter des biais, essentiellement en assimilant des personnes afro-américaines ou hispaniques à des criminels recherchés. "Les personnes de couleur sont apparemment moins facilement identifiables dans leurs caractéristiques, ou reconnaissables de façon certaine et absolue, donc il y a des risques de confusion qui sont plus importants, d’après la littérature. Si on prend le logiciel Rekognition d’Amazon, dans certains cas précis, on a eu un taux bien plus important de personnes à peau colorée qui sont assimilées à des criminels que des personnes de peau blanche", ajoute Carine Doutrelepont.
"Big Mother", la surveillance qui vous chouchoute ?
Dans le contexte de colère contre une police accusée de discriminations raciales, ces discriminations supplémentaires dues à la technologie sont donc difficiles à faire accepter par l’opinion publique.
Mais le mouvement est bien là : ce genre de logiciel tend à s’imposer de plus en plus dans l’espace public. "Il est vrai que les avantages de la reconnaissance faciale, c’est d’assurer une certaine fluidité dans l’espace public à certains égards", commente à ce propos Carine Doutrelepont. "Il est certain que de pouvoir rentrer dans un service public directement, sans présenter sa carte, ça peut paraître intéressant. Mais en même temps, on aliène au même moment nos libertés. C’est une méthode qui doit être cadrée : il faut des limites, une transparence, des garanties… Et les Etats qui l’utilisent n’ont pas de législation qui, de manière globale, assure ces garanties et cette transparence."
"En Chine ou au Royaume-Uni, les autorités veulent assurer une surveillance, une sécurité, et qui dès lors la mettent en place pour, à certains égards, suivre les individus… En Chine, les policiers ont des lunettes avec reconnaissance faciale. On nous annonce ça aussi dans certains autres pays", met en garde la juriste.
Débat de valeurs
Cette double caractéristique – plus de confort versus plus de contrôle – engendre aujourd’hui une nouvelle appellation : la "Big Mother", par analogie avec le "Big Brother" (la société de la surveillance, qualificatif issu de roman 1984 de George Orwell, rédigé en… 1953).
"Aujourd’hui, le caractère intrusif des technologies est justement adouci par ces avantages qui sont générés. C’est l’idée que le monde devient un "Big Mother" maternant : on prend les personnes pour les mettre dans des cocons de vie, tout en les amenant, sans transparence dans certains Etats, à aliéner une partie très importante de leurs libertés".
Il est donc urgent de trouver un équilibre entre libertés et confort technologique, d’autant plus que le progrès promet une diffusion des "smartcities" ou villes intelligentes, dans lesquelles tout est connecté, et où la surveillance et le contrôle sont au maximum.
Mais pour Carine Doutrelepont, une question se pose : "Est-ce vers ça que les individus veulent aller aujourd’hui ? C’est un vrai débat de valeurs et un débat qui devrait être porté au parlement." Elle rappelle les enjeux du commerce des données personnelles, "édifiant et spectaculaire". Un commerce qui monétise les caractéristiques du visage. Et avec l’engouement du public pour les tests généalogiques, même les données ADN des individus sont vendues et revendues…
On parle beaucoup aussi des données santé. Elles sont collectées par un organisme dont on ne connaît pas la consistance, c’est d’une opacité absolue
Le contrôle de ce commerce devient difficile, si pas impossible. "Il faut rappeler qu'il y a des organismes comme Clearview all qui ont récolté trois milliards de photos sur les réseaux de l’internet et ont vendu cela à la police américaine. Aujourd’hui, on parle beaucoup aussi des données santé. Elles sont collectées par un organisme dont on ne connaît pas la consistance, c’est d’une opacité absolue, les finalités du traitement ne sont pas clarifiées…" Illustration : dans certains pays, ces données sont cédées aux sociétés d’assurances, qui déterminent la couverture de leurs assurés… Une crainte déjà relayée en Belgique par plusieurs praticiens, mais peu connue des citoyens.
Par ailleurs, certains états, la Chine ou les Etats-Unis nous obligent déjà à céder des données biométriques…
Quelle peut donc être la limite ? Dans les pays de l’Union européenne, rappelle Carine Doutrelepont, il y a déjà le RGPD, le Règlement général sur la protection des données. L’Union européenne a d’ailleurs refusé jusqu’ici d’autoriser l’utilisation de la technologie de reconnaissance faciale.
La réflexion doit cependant encore mûrir, car les enjeux sont importants, explique la juriste, qui espère un débat sur une intelligence artificielle éthique pour préparer les nouveaux défis. "Ce n’est pas l’algorithme qui va décider du niveau de démocratie acceptable de la population, c’est la démocratie que nous définissons chaque jour qui va définir comment on va utiliser l’algorithme." C’est l’espoir de beaucoup de défenseurs des droits fondamentaux.