Elon Musk : quand l'intelligence artificielle peut écrire avec style tout un roman

C’est une nouvelle intelligence artificielle mise au point par une start-up cofondée par le milliardaire Elon Musk. Le système est capable d'écrire des articles des dialogues et même des codes informatiques. Mais il fascine autant qu’il inquiète.

Le "modèle" baptisé GPT-3 de la société californienne OpenAI est simple : l’utilisateur commence une phrase, la machine la termine puis sait écrire tout un roman. Il peut, par exemple, inventer la suite d’un dialogue entre deux personnages, continuer une série de questions-réponses ou poursuivre un poème dans le style de Shakespeare.

Un livre qui s’écrit tout seul, comment ça marche

"Cette intelligence artificielle a tellement de données qu’avec ce début de phrase en faisant des croisements, elle a beaucoup plus d’autonomie qu’avant, elle peut faire plein de choses toute seule" : s’enthousiasme Axel Legay, Ingénieur spécialiste en intelligence artificielle, à l’UCLouvain, "Il s’agit de sortes de réseaux de neurones qui apprennent en recevant des données, peu au début puis de plus en plus, ils commencent à s’auto-configurer puis deviennent de plus en plus efficaces et autonomes. Le deal, c’est de leur donner un maximum d’infos pour qu’au final, ils atteignent une autonomie totale dans leurs décisions. Heureusement, pour le moment, la machine peut être débranchée par l’humain. On n’est pas dans 'Terminator'."

Les "intelligences artificielles" ne sont pas, pour le moment en tout cas, encore directement reliées à la prise de décision. Cela pourrait changer. Une chose est sûre, pour être efficace, il leur faut des milliards de données.

Des milliards d’infos siphonnées sur le web

GPT-3 sait trouver des réponses précises comme le nom d’une maladie à partir d’une description des symptômes, donner la solution de certains problèmes mathématiques, s’exprimer dans plusieurs langues. Il sait que tel mot, ou expression, a plus ou moins de chances de suivre tel autre.
Ce n’est pas une nouvelle technologie, mais cette fois, l’IA a englouti des milliards de données. "Les GAFA comme celle d’Elon Musk siphonnent, des milliards de pages web, les réseaux sociaux, les encyclopédies, tout ce qui est accessible": explique notre spécialiste, "Par exemple, pour cette nouvelle création du fantasque milliardaire, Wikipédia ne représentait que 3% des infos ingurgitées. Quand on connaît la taille impressionnante de cette encyclopédie, on imagine que l’IA, en question, en a sous le capot."

Des infos mal triées qui peuvent conduire au racisme ou au sexisme

Le hic, c’est que l’on ne peut pas contrôler l’origine de tout ce qu’elle a avalé. C’est là que cela pourrait déraper. "C’est le problème de l’épuration ou du filtrage des données": ajoute Michel Dupuis, philosophe à l’UCLouvain et ancien membre du comité de bioéthique,"Quand on a des technologies d’épuration des eaux usées, par exemple, on peut légitimement se poser la question de l’eau que l’on va utiliser, eau de mer ou eau usée. En réalité on a des traitements de purification, qui nous fournissent un produit net ou propre, sans danger. Est-ce le cas pour les infos ? C’est ça l’enjeu, c’est garantir que cette alimentation gloutonne d’un tas d’infos venant de partout y compris les 'fake news'. Tout cela est-il suffisamment filtré pour permettre de faire une info 'potable'. Rien n’est moins sûr ! Ou alors ces modèles seraient vraiment super-intelligents au point de ne pas choper ces virus humains que sont le machisme, le racisme ou l’homophobie."

Cela s’est déjà passé

Axel Legay rappelle que cela s’est déjà passé : "Les algorithmes d'autres IA étaient allés chercher, pour leur apprentissage, des 'fake news' et des infos orientées sur la couleur de peau, et cela a biaisé leur décision. Elon Musk craignait que sa dernière version ne génère une fausse notice, il prétend avoir ajouté des filtres supplémentaires sur la nouvelle version."

"Quand il est question d’un livre qui s’écrit tout seul, on peut avoir le sentiment d’être dépossédé d’une forme de créativité humaine, on entre dans un autre monde": répond le philosophe.

Notre expert en intelligence artificielle, est clair, ce GPT-3 est surtout intéressant comme d’autres pour rédiger des recommandations mais il faut rester prudent, si on le connecte à la prise de décision stratégique. Il faut que l’humain reste dans la boucle.

 

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK