Comment réprimer les pulsions guerrières des robots ?

Comment réprimer les pulsions guerrières des robots ?
2 images
Comment réprimer les pulsions guerrières des robots ? - © Unsplash

Le film Terminator décrit un monde apocalyptique dans lequel les machines se révoltent contre les hommes : après avoir créé une puce révolutionnaire, les ingénieurs de la société Skynet ont la mauvaise idée de l’implanter à des robots tueurs. Aujourd’hui et dans la réalité, avec le développement de l’Intelligence Artificielle, des craintes émergent autour de ce scénario hollywoodien. Gilles Quoistiaux a pointé les risques qui existent. 

L’algorithme seldonien

Heureusement, dans un laboratoire de l’Université du Massachussetts, des chercheurs s’apprêtent peut-être à sauver l’humanité. Ils développent en effet un algorithme pour calmer les envies belliqueuses des robots et éviter que l’Intelligence Artificielle ne devienne dangereuse pour l’homme : l’algorithme seldonien. L’appellation fait référence à Seldon, personnage principal du roman " Fondation " écrit par le célèbre auteur de science-fiction Isaac Asimov. Asimov est également l’inventeur des trois lois de la robotique qui, si elles sont respectées, éviteront justement que les machines ne se retournent contre les êtres humains :

  1. Un robot ne peut pas blesser ni tuer un être humain. Il ne peut pas non plus rester passif si un humain est en danger.
  2. Un robot doit obéir aux ordres d’un être humain, sauf si cet ordre est en contradiction avec la première loi. Un être humain ne peut donc pas programmer un Terminator pour tuer d’autres êtres humains, c’est interdit.
  3. Un robot doit protéger sa propre existence, sauf si cette protection implique de contrevenir à la première ou la deuxième loi.

Y-a-t-il vraiment un risque ?

Le physicien Steven Hawking, décédé l’année dernière, avait déjà alerté sur la nécessité de mettre des garde-fous à l’Intelligence Artificielle. Le patron de Tesla et de Space X, Elon Musk, a également évoqué ce scénario. Les robots tueurs existent. Les drones utilisés notamment par l’armée américaine sont considérés comme des robots tueurs, même s’ils ne prennent pas (encore) de décisions de manière autonome. Le scénario de Terminator ne semble donc pas imminent, mais d’autres risques existent. Il arrive en effet que l’Intelligence Artificielle fonctionne de manière complètement biaisée. À titre d’exemple, Apple a développé récemment une carte de crédit pour la banque Goldman Sachs. Cette Apple Card détermine automatiquement les limites de crédit du client, en examinant sa situation financière. Cependant, les machines qui se cachent derrière cette carte sont aujourd’hui accusées d’être sexistes puisqu’elles octroieraient plus de facilités de crédit aux hommes qu’aux femmes. Pour éviter ce genre de biais, les mêmes chercheurs de l’Université du Massachussetts planchent sur un algorithme qui apprendrait à la machine à ne pas discriminer les individus sur la base de leur genre, de leur âge ou de leur origine. À l’avenir, toutes les Intelligences Artificielles devraient d’ailleurs avoir leur algorithme seldonien.

Réécoutez la chronique de Gilles Quoistiaux dans Matin Première !

Newsletter La Première

Recevez chaque vendredi matin un condensé d'info, de culture et d'impertinence.

OK