RTBFPasser au contenu

Intelligence artificielle : visite au très secret laboratoire de Facebook

Intelligence artificielle : visite au très secret laboratoire de Facebook
20 mai 2019 à 12:57 - mise à jour 20 mai 2019 à 14:395 min
Par Jean-Claude Verset

Le FAIR (Facebook AI Research) de Paris est un centre spécialisé qui réunit 80 chercheurs en intelligence artificielle. Ce qui en fait le plus grand des Labs « AI » disséminés par Mark Zukerberg dans le monde. Un centre fermé aussi protégé que Fort Knox. Il faut dire que tous les géants de l’informatique travaillent sur le sujet. IBM Amazon, Microsoft et Google pour ne citer qu’eux. Un marché énorme qui atteindra 11 milliards de dollars en 2024. De quoi appâter.

C’est en 2013 que Facebook a lancé le FAIR avec pour seule mission le développement de l’intelligence artificielle. Aujourd’hui des filiales existent partout dans le monde. A Montréal et New-york, mais aussi à Paris dont le FAIR est devenu le centre le plus important. Le laboratoire accueille également en permanence une vingtaine de doctorants venus se perfectionner dans une branche informatique encore en devenir. Face book assure travailler sur la base d’une plateforme open source qui partage les enseignements avec le monde académique. Une chercheuse nous a confié disposer de la possibilité de publier certains de ses travaux réalisés dans le LAB.

La « journée portes ouvertes » à laquelle étaient conviés 20 journalistes devait aussi permettre de redorer une image de Facebook ternie pas les révélations sur l’usage fait des données de millions d’internautes. L’entreprise de Zukerberg veut montrer qu’elle lutte contre ses pires ennemis : les fake news, les hackers, les spams, les faux comptes, la pornographie et la violence. Et pour cela, Elle cherche à pouvoir identifier les contenus avec un minimum de supervision humaine possible. Place aux deep learning.

Opération séduction au FAIR de Paris, en compagnie de Jérôme Pesenti, vice-président AI chez Facebook.
Opération séduction au FAIR de Paris, en compagnie de Jérôme Pesenti, vice-président AI chez Facebook. © Tous droits réservés

En 1956 : l’intelligence artificielle

Le concept d’intelligence artificielle remonte à 1956, quand l’informatique était balbutiante et internet dans les limbes. Depuis, le défi technologique est toujours le même : rapprocher le fonctionnement de la machine de celui du cerveau humain. Mais comme l’explique la canadienne Joëlle Pineau, Co-managing director du laboratoire FAIR, le cerveau humain est un tout, alors que l’intelligence artificielle peut se comparer à un puzzle dont les pièces sont la connaissance, l’apprentissage, la recherche, le langage ou la vision. « Chaque neurone humain a la capacité de comprendre une partie de l’information qui peut être distribuée vers les autres neurones. Pour l’AI, chaque neurone informatique est une fonction mathématique qui analyse une partie de l’info. La puissance du réseau de neurones fait que l’analyse s’effectue ensuite, de manière globale, et que l’on peut ressortir des prédictions de l’information. » Le défi, pour les développeurs est donc de parvenir à élaborer une stratégie permettant d’intégrer les différentes pièces du Puzzle informatique. D’où le recours à un ensemble de techniques aux noms étranges telles que le machine learning, la computer vision, le natural language processing et le deep learning. Alors qu’un ordinateur classique mettra 100 heures pour assimiler les règles du jeu de Go qu’un humain apprend en 15 minutes, c’est le Deep learning et l’autoapprentissage qui permettent de raccourcir ce délai. « Parce que dans la vie réelle, une voiture autonome ne peut pas mettre 30 secondes pour constater qu’un obstacle s’approche d’elle », explique Yann Le Cun, Chief AI Scientist. « Comme l’humain qui apprend par observation, Le deep learning est un apprentissage par l’exemple. Pour reconnaître un chat, la machine ne va pas retenir la définition du chat (un animal à quatre pattes doté de moustaches), mais va enregistrer les photos de centaines de chats différents. Et en ajoutera d’autres au fil de son expérience. »

Yann Le Cun, Chief AI Scientist dans les bureaux parisien du laboratoire  d'intelligence artificielle. «Comme l’humain qui apprend par observation, Le deep learning est un apprentissage par l’exemple.
Yann Le Cun, Chief AI Scientist dans les bureaux parisien du laboratoire d'intelligence artificielle. «Comme l’humain qui apprend par observation, Le deep learning est un apprentissage par l’exemple. Christophe Petit Tesson - BELGAIMAGE

Les premières applications

L’intelligence artificielle n’est pas qu’une vue de l’esprit, les exemples concrets se multiplient. A commencer par la traduction en temps réel, déjà disponible sur smartphone.

Au lieu d’apprendre tous les langages parlés, l’ordinateur écoute ce que dit la première personne pour fournir immédiatement une traduction fiable sur l’écran du mobile de son interlocuteur.

De même, pas de voiture autonome sécurisée sans les algorithmes de l’intelligence artificielle. Les assistants numériques (les bots) sont, eux aussi, de plus en plus humains, au point de se faire passer pour des êtres de chair et de sang lors d’échanges téléphoniques. Des tests ont également été réalisés avec un fauteuil roulant électrique qui, dans une galerie marchande, déniche un distributeur de billets sans rien demander à personne.

 

Lieu de repos du FAIR de Paris: La création, aussi, sur les murs.
Lieu de repos du FAIR de Paris: La création, aussi, sur les murs. © Tous droits réservés

Et l’éthique dans tout ça ?

Au FAIR, on appelle cela la « Fairness », décrite comme « la volonté assumée du principe d’inclusion » de tous. Joaquin Quinonero Candela, directeur de Facebook AI, explique que si l’on utilise l’IA pour modérer du contenu il faut éviter les biais algorithmiques. C’est-à-dire les préjugés qui sont introduits dans l’intelligence artificielle. Une manière d’y parvenir est de travailler avec des développeurs de différents pays, de différentes origines et comptant autant d’hommes que de femmes. Au niveau visuel, cette 'inclusivité' impose d’alimenter les systèmes avec des informations incluant tous les âges, tous les genres et toutes les couleurs de peau.

« Si tous les développeurs sont à San Francisco, ils ne sont pas représentatifs de la communauté mondiale. Il faut donc des ‘reviewers’dans le monde entier. Et être conscient que le journaliste, le scientifique ou le psy n’ont pas la même vision du monde. » Il cite l’exemple des élections en Inde qui compte des régions, des langues et des communautés très diverses. « Pour éviter les interférences dans les élections. On identifie les contenus à risques pour les éviter ».

Preuve que l’algorithme n’est pas que mathématique, Joaquin Quinonero Candela assure compter des philosophes dans son équipe. « Les nouveaux défis ne sont plus techniques mais de compréhensions entre scientifiques et philosophes. Le défi, ce sont les priorités de la société. » Avec cet aveu : « Lorsque le contenu est polarisant ou excessif, il est difficile de donner une réponse ».

Les défis de l’IA

La reconnaissance de photos par intelligence artificielle est déjà très avancée, expliquent les chercheurs du laboratoire de Paris. Notamment à l’aide d’une nouvelle approche de la reconnaissance des objets. Le Panoptic FPN aide le système d’AI à comprendre le contexte à partir des éléments en arrière-plan de la photo. Des modèles de training combinent les signaux visuels et audio pour améliorer les résultats. Et le « self supervised learning » peut recréer la partie manquante de la photo sur base d’une autre partie. « Il prédit le futur par rapport au passé, le haut par rapport au bas. Et d’une photo en noir et blanc, il peut en reconstituer les couleurs. » Sur les 3,5 milliards de photos Instagram, propriété de Facebook, le système d’AI serait capable d’en reconnaître 85%.

L’enjeu : la précision des prévisions

Plus compliquée est la reconnaissance de la vidéo et du langage. Sur base d’un extrait de vidéo, le système apprend à en prévoir la suite. Et l’algorithme intelligent permet d’identifier un mot non pas dans une seule langue, mais pour 140.

Pour Yann Le Cun chief AI scientist à New York, le défi majeur de l’intelligence numérique porte sur la précision des prévisions. « L’intelligence artificielle doit venir plus humaine. L’assistant numérique doit pouvoir apprendre comme un jeune enfant ou comme l’animal domestique. »

Mais c’est aussi, selon lui, un enjeu politique qui doit amener à une régulation de cette technologie pour déterminer ce que l’on peut faire. Et ce qui doit être interdit. Mark Zukerberg n’a pas dit autre chose.

Au final, le défi et la raison d’être de l’AI, sont de prévoir l’avenir, tout simplement. Le pari sera gagné lorsque les moteurs d’intelligence artificielle auront acquis « le sens commun », résume Yann Le Cun. Mais pour cela, il faudra percer le secret de « la nature de l’intelligence ». Et on en est sans doute loin.

 

Articles recommandés pour vous