Après la découverte de la poudre et après la découverte de l’arme atomique, les robots tueurs vont-ils devenir la troisième révolution dans le domaine des armes ? Des scientifiques tirent la sonnette d’alarme. Avec les développements de l’intelligence artificielle, ils demandent l’interdiction de ce type d’armes afin qu’on ne puisse les fabriquer. Mais les principaux pays industrialisés font jusqu’ici la sourde oreille.
Le débat va reprendre à Genève la semaine prochaine avec des experts d’une septantaine de pays. En Europe, seule l’Autriche s’est prononcée jusqu’ici en faveur d’une interdiction pure et simple. Pour Denis Jacqmin, chercheur au GRIP, le Groupe de recherche et d’information sur la paix et la sécurité, au cœur du débat il y a le droit international humanitaire : "Vous ne pouvez pas faire tout ce que vous voulez. Vous devez notamment, par exemple, discriminer entre civils et combattants, vous ne pouvez pas attaquer de civils et votre attaque doit aussi être proportionnelle. Alors, évidemment, c’est un calcul extrêmement complexe pour les soldats, mais il l’est encore plus pour une intelligence artificielle. La question est donc de savoir dans quelle mesure une intelligence artificielle serait un jour capable de faire cette distinction entre civils et militaires et d’effectuer cet examen de proportionnalité de l’attaque. Donc, il y a certains pays qui sont plutôt dans une optique de régulation, donc s’assurer qu’il y ait toujours ce qu’on appelle un contrôle humain effectif. Maintenant, toute la question de la définition est de savoir quel sera le degré, jusqu’où placer la barre de l’autonomie du système".
Jusqu’ici 26 pays se sont prononcés pour une interdiction des armes autonomes ; seul un grand pays, la Chine, s’est prononcé uniquement contre l’utilisation des armes, et pas contre leur fabrication.