Apple scannerait vos photos pour lutter contre la pédocriminalité : on démêle le vrai du faux

En annonçant vouloir traquer les contenus pédopornographiques, Apple s’est pris les pieds dans le tapis. Si l’idée est évidemment utile, la communication de la marque à la pomme sur le sujet est loin d’être exemplaire. Voici donc ce qu’il faut savoir sur ce nouvel outil. 

Une détection totalement transparente 

Petit rappel des faits : ce jeudi 5 août, Apple annonce la mise en place d’un nouvel outil permettant de détecter les contenus à caractère pédopornographiques dans les bibliothèques de photos de ses utilisateurs. En faisant une comparaison avec les photos uploadées sur iCloud et les contenus gérés par le Centre national des enfants disparus et exploités (NCMEC) aux États-Unis, l’entreprise souhaite “protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de contenus pédopornographiques.

Mais très vite, cette intention louable se transforme en débat sur la vie privée et sur la surveillance des utilisateurs, deux points pourtant très importants dans la communication d’Apple. Des voix s’élèvent alors pour critiquer l’outil.


Lire aussi : Abus sexuels sur enfants: Apple veut "scanner" les iPhone, iPad et iCloud et suscite des craintes pour la vie privée


Pour Greg Nojeim, du Centre pour la démocratie et la technologie, “Apple remplace son système de messagerie crypté de bout en bout par une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et aux dérives non seulement aux États-Unis, mais dans le monde entier.”

Mais qu’en est-il réellement ?

Non, Apple n’a pas accès au contenu de vos photos

C’est sans doute le point le plus important à souligner. La firme de Cupertino et ses employés ne peuvent pas voir vos photos ou vidéos. Pour déterminer si un contenu présent sur iCloud enfreint la loi, Apple compare simplement la “signature électronique” de la photo ou de la vidéo, avec la base de données de la NCMEC. Cette analyse ne se fait d’ailleurs pas sur les serveurs d’Apple, mais directement sur l’appareil de l’utilisateur (iPhone, iPad, Mac, etc), pour plus de sécurité. 

2 images
© Apple

Comme on peut le voir sur cet exemple, l’outil “Neuralmatch” d’Apple estime que la photo numéro 1 et numéro 2 sont similaires, et disposent donc de la même signature. La troisième photo est différente, et possède donc une signature différente. 

Ensuite, si une photo ou une vidéo correspond, Apple génère une alerte chiffrée, mais n’est toujours pas en mesure de “voir” la photo ou la vidéo en question. Ce n’est que lorsqu’un certain seuil est dépassé, qu’Apple examine manuellement chaque alerte pour confirmer qu'il existe une correspondance. Ensuite, l’entreprise désactive le compte de l'utilisateur et envoie un rapport à la NCMEC. 

Non, cela ne concerne pas les photos de vos enfants

Si certains experts s’indignent, comme le chercheur Matthew Green qui estime que le chiffrement des données et le respect de la vie privée ne peuvent aller de pair avec une surveillance des photos des utilisateurs, d’autres se posent des questions plus concrètes. 

Qu’en est-il des photos de mon bébé prenant son premier bain”, se demande un internaute sur le forum de MacRumors ? La question n’est pas totalement idiote, après le tout la photo montre probablement un petit enfant nu. Mais comme le rappelle Apple, ce contenu n’est pas visible par l’outil. Celui-ci ne peut donc pas se tromper en voyant un enfant nu, puisqu’il ne voit tout simplement pas la photo. De plus, le contenu en question doit également se trouver dans la base de données de la NCMEC pour alerter Apple. 

Non, cette “surveillance” n’est pas obligatoire

Si, pour quelque raison que ce soit, vous ne souhaitez pas voir votre contenu analysé par Apple, il est possible de l’éviter. Il suffit pour cela de désactiver la synchronisation de vos photos avec iCloud en vous rendant dans les réglages de votre appareil (Réglages > Identifiant Apple > iCloud > Photos).


Lire aussi : C'est confirmé : le Google Assistant écoute vos conversations



Cela signifie que les photos présentes sur votre iPhone resteront sur votre iPhone, et de même pour votre iPad et/ou votre Mac. Rien ne sera synchronisé avec Apple, ni entre vos différents appareils. 

Non, tout le monde n’est pas concerné

À l’heure actuelle, seuls les États-Unis sont concernés par cet outil. Apple collabore avec le Centre national des enfants disparus et exploités, mais pourrait, à l’avenir, collaborer avec d’autres organismes similaires à travers le monde.

De plus, l’outil ne sera présent que sur iOS 15, iPadOS 15, watchOS 8, et macOS Monterey, qui arriveront, selon toute logique, dans le courant du mois de septembre. 

Non, Apple n’est pas la seule entreprise à disposer d’un tel outil

Tout comme Apple, Google dispose depuis 2008 d’un outil similaire, baptisé CyberTipline. Comme le rappelle le site Numerama, la firme de Mountain View a déjà signalé aux autorités des contenus pédopornographiques envoyés via Gmail. 

Malheureusement, toutes les entreprises du net sont confrontées à des cas d’abus sexuel sur mineur. C’est pourquoi Google retire activement les images illicites de ses services, incluant le moteur de recherche et Gmail, et adresse immédiatement une notification au centre national pour les enfants disparus et maltraités”, expliquait le moteur de recherche en 2014. 

La méthode utilisée était similaire à celle d’Apple : “Chaque image représentant de la pornographie infantile se voit attribuer une empreinte numérique unique qui permet à nos systèmes d’identifier ces photos, même dans Gmail.

À noter que Twitter, Microsoft et Facebook disposent également de leur outil.

Non, le risque zéro n’existe pas

Selon Apple, le système est très précis, avec un taux d'erreur extrêmement bas de moins d'une erreur sur un trillion de contenu analysé par an. Et comme le rappelle très justement John Clark, directeur général de la NCMEC : “Avec un si grand nombre de personnes utilisant des produits Apple, ces nouvelles mesures de sécurité ont le potentiel de sauver des vies pour les enfants qui sont attirés en ligne et dont les images horribles circulent dans les documents relatifs aux abus sexuels sur les enfants.

Mais ce qui est potentiellement inquiétant dans l’annonce d’Apple, ce n’est pas d’être livré par erreur aux autorités pour possessions de contenus pédopornographiques. Ce sont les éventuelles portes dérobées. Car qui dit analyse, dit détournements possibles, notamment par des gouvernements autoritaires, qui pourraient profiter de l’outil pour contrôler leur population. 

Enfin, comme le souligne Guillaume Champeau, responsable juridique chez Qwant, Apple pourrait étendre son outil à d’autres activités illégales. Et donc empiéter encore plus sur la vie privée de ses utilisateurs…