Une autre option que les chercheurs en IA ont envisagée serait de restreindre les possibilités d’action de l’IA en fonction de l’incidence qu’elle aurait sur les humains. Le problème de cette théorie est que, pour créer un algorithme capable d’arrêter l’IA, il faut pouvoir prédire tout ce que cette IA peut devenir. Mission impossible pour trois raisons principales : les IA sont, en partie, créées pour être "plus intelligentes" que l’Homme, un seul et unique algorithme ne pourra pas contenir l'ensemble des IA et leurs logiques propres, et nous ne pouvons pas savoir ce que va devenir une IA donc ne pouvons pas créer un algorithme pour arrêter ses actions, comme l'explique ScienceAlert.
"La capacité d’adaptation des ordinateurs modernes à l’aide d’algorithmes d’apprentissage sophistiqués rend encore plus difficile la formulation d’hypothèses sur le comportement éventuel d’une IA superintelligente", explique Iyad Rahwan, un des chercheurs de l’équipe.
Les algorithmes de confinement ont déjà été créés et testés avec succès mais le problème est que les systèmes d’IA avancés d’aujourd’hui sont bien plus sophistiqués que celles testées. Les "disjoncteurs" conçus pour arrêter l’IA, si elle essaye de causer des dommages (quels qu’ils soient), sont presque obsolètes aujourd’hui et le seront encore plus face à une super IA.
Il faudrait alors restreindre l’intelligence de l’IA mais, selon les chercheurs, cela la rendrait presque inutile puisqu’elle a été créée afin de comprendre des choses qui nous dépassent ou qui nous demande beaucoup trop de temps à concevoir.