On ne pourra pas contrôler une super intelligence artificielle

On ne pourra pas contrôler une super intelligence artificielle
3 images
On ne pourra pas contrôler une super intelligence artificielle - © Andriy Onufriyenko - Getty Images

Une récente étude met à mal les idées pour contrôler une super intelligence artificielle et avance même qu’on ne pourrait pas l’arrêter si elle décide de sortir de son cadre.

Cette étude de l’Institut Max-Planck pour les hommes et les machines nous fait penser aux dérives que l’on a pu voir dans de nombreux films comme, par exemple, iRobot où une intelligence artificielle, malgré les 3 lois d’Isaac Asimov, prend le contrôle de l’humanité grâce aux robots.

Si l’on n’en est pas encore là, Manuel Cebrian, co-auteur de l’étude et chef du groupe de recherche confie malgré tout à Business Insider :

"il existe déjà des machines qui effectuent certaines tâches importantes de manière indépendante, sans que les programmeurs ne comprennent parfaitement comment elles l’ont apprise".


Lire aussi : Robots vivants : "nous ne sommes pas équipés éthiquement"


On se rappelle également de l’épisode qui a effrayé plus d’une personne en 2016 où deux ordinateurs s’étaient mis à communiquer dans une langue qui n’existe pas. De quoi se poser des questions sur les capacités de l’Homme à contenir la machine.

Apprendre l’éthique à une IA

Si l’intelligence artificielle (IA) permet des prouesses en médecine comme aider au diagnostic précoce d’Alzheimer ou offre des possibilités dignes de films de science-fiction comme la possibilité de parler aux morts, les débats sur les limites de l’IA et notre capacité à la contrôler sont légion depuis bien longtemps.


Lire aussi : Le deep learning, qu’est-ce que c’est ?


Les 3 lois d’Isaac Asimov datent par exemple de 1942. On se demandait déjà quelles seraient les limites de la robotique alors qu’on commençait à peine à traiter le sujet. Ces trois lois se déclinent ainsi :

 

  1. Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger

  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi

  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi

La première loi revient donc à tenter d’apprendre l’éthique et le respect de la vie à une intelligence artificielle. Ce que des ingénieurs peuvent tenter de faire mais la récente étude (en plus des nombreux films qui montrent le cercle vicieux possible) prouve que rien ne permet d’affirmer qu’une IA ne va pas s’en prendre à un être humain une fois que sa logique et son intelligence seront supérieures à la nôtre.

Créer un algorithme restrictif (ou de confinement)

Une autre option que les chercheurs en IA ont envisagée serait de restreindre les possibilités d’action de l’IA en fonction de l’incidence qu’elle aurait sur les humains. Le problème de cette théorie est que, pour créer un algorithme capable d’arrêter l’IA, il faut pouvoir prédire tout ce que cette IA peut devenir. Mission impossible pour trois raisons principales : les IA sont, en partie, créées pour être "plus intelligentes" que l’Homme, un seul et unique algorithme ne pourra pas contenir l'ensemble des IA et leurs logiques propres, et nous ne pouvons pas savoir ce que va devenir une IA donc ne pouvons pas créer un algorithme pour arrêter ses actions, comme l'explique ScienceAlert.

"La capacité d’adaptation des ordinateurs modernes à l’aide d’algorithmes d’apprentissage sophistiqués rend encore plus difficile la formulation d’hypothèses sur le comportement éventuel d’une IA superintelligente", explique Iyad Rahwan, un des chercheurs de l’équipe.

Les algorithmes de confinement ont déjà été créés et testés avec succès mais le problème est que les systèmes d’IA avancés d’aujourd’hui sont bien plus sophistiqués que celles testées. Les "disjoncteurs" conçus pour arrêter l’IA, si elle essaye de causer des dommages (quels qu’ils soient), sont presque obsolètes aujourd’hui et le seront encore plus face à une super IA.

Il faudrait alors restreindre l’intelligence de l’IA mais, selon les chercheurs, cela la rendrait presque inutile puisqu’elle a été créée afin de comprendre des choses qui nous dépassent ou qui nous demande beaucoup trop de temps à concevoir.

Nous ne pourrons pas contrôler une super IA

Les conclusions de l’étude sont sans équivoque : nous ne pourrons pas contrôler une super intelligence artificielle et nous ne pourrons peut-être même pas nous rendre compte tout de suite que nous en avons créé une.

Il est impossible pour un être humain de créer un algorithme qui permettrait de stopper un super ordinateur ou de lui expliquer que l’éthique humaine passe avant son intelligence, ce que Alan Turing avait déjà compris en 1936 en expliquant qu’un algorithme de confinement unique applicable à tous les programmes ne pouvait pas exister.

Les chercheurs concluent leur étude en mettant en garde contre la création d’une super IA juste pour la recherche de la création et qu’une intelligence artificielle devait toujours être créée dans un but précis afin de pouvoir la contenir.

Nous ne sommes pas encore dans Matrix ou Terminator mais le sujet est à traiter avec délicatesse et grande prudence.