Les deepfakes : 5 questions pour comprendre comment faire dire n'importe quoi à n'importe qui

Les deepfakes : 5 questions pour comprendre comment faire dire n'importe quoi à n'importe qui
Les deepfakes : 5 questions pour comprendre comment faire dire n'importe quoi à n'importe qui - © Tous droits réservés

Les exemples se multiplient : il est désormais possible, sur une vidéo, de faire dire à quelqu’un quelque chose qu’il ou elle n’a jamais prononcé. C’est ce que les anglophones appellent les deepfakes. Dernièrement on a pu entendre Mark Zuckerberg se vanter de détenir des milliards d’informations privées volées. Tout cela est bien entendu extrêmement questionnant, surtout que des chercheurs ont mis au point, avec la complicité d’Adobe, un algorithme qui simplifie grandement la création de ce type de vidéo. Gilles Quoistiaux a regardé de plus près ces vidéos trompeuses.

Cette vidéo n’a pas été créée par un hacker ou par un champion de la manipulation sur Internet, mais par un artiste britannique, qui s’appelle Bill Posters. Il s’est associé avec Canny AI, une société israélienne spécialisée dans ces technologies de trucages audio et vidéo.

Ensemble, ils ont créé cette vidéo de Mark Zuckerberg, qui nous explique tranquillement comment il contrôle nos données personnelles, et comment il joue avec nous comme avec des marionnettes. Mark Zuckerberg n’aurait évidemment jamais osé dire publiquement ce genre de chose, mais cette vidéo est extrêmement réaliste, et on peut facilement se faire berner.

1. Quel est l’objectif de cet artiste qui a décidé de publier cette vidéo trafiquée ?

Il poursuit deux objectifs. Tout d’abord tester les outils de modération de Facebook. En effet Facebook cherche une solution pour lutter contre les fakenews qui représente un énorme problème pour la plateforme, qui est régulièrement accusée de favoriser l’émergence de ces fausses nouvelles. Bill Posters voulait donc savoir si Facebook allait repérer cette vidéo trafiquée et la supprimer de son site, mais aussi d’Instagram.

Et finalement, la vidéo est restée, elle n’a pas été retirée.

Il faut dire que Facebook était mal pris : la vidéo est en fait une sorte de parodie et de critique de son patron Mark Zuckerberg, la retirer serait assimilé à de la censure. De plus, il est indiqué assez clairement sur cette vidéo que c’est un deepfake, un faux extrait. Les modérateurs de Facebook ont donc sagement décidé de la conserver.

2. Un danger pour notre société?

C’est le deuxième objectif poursuivi par Bill Posters, l'auteur de la vidéo de Mark Zuckerberg : interpeller le grand public sur ces deepfakes et le danger qu’elles représentent. Il n’en est pas à son coup d’essai, il en a fait d’autres avec Donald Trump et Kim Kardashian. Et ce n’est pas le premier à créer ce type de contenu choc. Il y a un an, le site Buzzfeed a monté cette vidéo de Barak Obama, qui dit des choses qu’un président ne devrait pas dire. Les possibilités sont donc énormes et surtout dangereuses surtout dans des pays en proie aux fakes news comme l'Inde ou le Brésil. 

3. Comment sont créées ces vidéos ?

Ces vidéos utilisent deux types de logiciels :

  • un pour le son, un pour l’image. Un premier logiciel va donc imiter la voix de la personne qu’on veut piéger. 
  • le deuxième logiciel va trafiquer l’image.

Il faut partir d’une vidéo existante, par exemple de Mark Zuckerberg. A partir de cette vidéo, un algorithme va s’entraîner à reconnaître ce qu’on appelle les phonèmes, c’est-à-dire les éléments sonores qui sortent de la bouche du patron de Facebook. Cet algorithme va établir des corrélations entre ces phonèmes et l’expression du visage de Mark Zuckerberg. Il suffit ensuite de combiner les faux extraits sonores avec les expressions du visage correspondantes.

4. Deepfake, mais haute technologie ?

Malheureusement pas du tout, c'est très accessible. Ce sont aujourd’hui des techniques plutôt maîtrisées. C’est ce qu’ont démontré des chercheurs de l’université de Standford. En utilisant des outils développés par la société Adobe, ils ont créé un logiciel qui permet de créer très facilement des deepfakes. Il suffit de dégoter une vidéo originale de la personne que l'on vise et de taper ensuite dans le programme les phrases qu’on veut vous faire dire. Et il dira absolument n’importe quoi.

 

5. Tous bernés ?

Les chercheurs ont créé une série de fausses vidéos avec leur logiciel. Ils ont soumis ces vidéos à un échantillon de 140 personnes, pour voir si elles leur semblaient crédibles. Le résultat, c’est que 60 % des gens estiment que ces fausses vidéos ne sont pas truquées. Ça ne semble pas énorme comme ça, mais il faut comparer ce résultat avec de vraies vidéos qui ont aussi été soumises à ces 140 personnes. Et là, 80 % des personnes testées considèrent que ces vraies vidéos sont vraies, si vous me suivez toujours.

Avec l’arrivée de ces technologies de deepfakes, qui vont se perfectionner, il deviendra de plus en plus difficile de distinguer le vrai du faux.

Réécoutez cette chronique de Gilles Quoistiaux dans les Décodeurs !

Newsletter La Première

Recevez chaque vendredi matin un condensé d'info, de culture et d'impertinence.

OK