Apple analyse les photos des utilisateurs pour détecter des abus sur les enfants

Apple analyse les photos des utilisateurs pour détecter des abus sur les enfants
Apple analyse les photos des utilisateurs pour détecter des abus sur les enfants - © Photo by Philipp Katzenberger on Unsplash

Lors de son grand retour au salon CES de Las Vegas, Apple a confirmé que les photos uploadées sur iCloud étaient scannées afin d'éviter tout contenu illégal.

Jane Horvath, la directrice principale de la protection des renseignements personnels au sein d'Apple, a expliqué sur la scène du CES que la firme de Cupertino utilisait une technologie spéciale, permettant à l'entreprise de détecter tout abus sexuel sur des enfants. 

La marque à la pomme s'appuie, comme de nombreuses autres sociétés (Facebook, Twitter, Google), sur le logiciel PhotoDNA, créé spécialement pour détecter ce type de contenu. 

Apple a profité du CES pour rappeler ses engagements pour la sécurité des enfants sur une page dédiée : 

Apple s’engage à protéger les enfants dans l’ensemble de notre écosystème, quel que soit l’endroit où nos produits sont utilisés, et nous continuons à soutenir l’innovation dans ce domaine. Nous avons développé des protections robustes à tous les niveaux de notre plateforme logicielle et tout au long de notre chaîne logistique. Dans le cadre de cet engagement, Apple utilise la technologie de correspondance d’images pour aider à trouver et à signaler les cas d’exploitation d’enfants. Tout comme les filtres anti-spam dans les e-mails, nos systèmes utilisent des signatures électroniques pour trouver les cas suspects d’exploitation d’enfants. Nous validons chaque correspondance par un examen individuel. Les comptes comportant du contenu d’exploitation d’enfants violent nos conditions générales de service, et tout compte que nous trouvons avec ce matériel sera désactivé.