Robots tueurs en zone de guerre : quelles conséquences sur les civils ?

Peut-on remettre en question l’intelligence artificielle dans les stratégies de guerre ? Aujourd’hui, ceux qu’on appelle les robots tueurs sont utilisés comme soldats sur le terrain. Mais qu’est-ce que cela dit de nous, humains ? Marie des Neiges Ruffo est chargée de cours aux facultés de Namur, et est rattaché à la fois à la faculté de Droit et à la faculté d'informatique. Elle a publié un livre sur ces questions, Itinéraire d’un robot tueur, et en a livré les grandes lignes dans Soir Première.

Avant toute chose, l’auteure définit clairement ce dont on parle : "Le terme robot tueur est une appellation pour le grand public. Les spécialistes parlent de SALA, à savoir de systèmes d’armes létaux autonomes. Alors, Par létal, on entend la capacité de tuer sur un champ de bataille. Et ça, ce n’est pas nouveau, cela existe depuis que l’homme est homme. Mais la nouveauté réside dans le caractère autonome de l’arme. Un robot autonome a la capacité de faire quelque chose sans que vous deviez appuyer sur un bouton pour qu’il se déclenche".

Une autonomie qui pour Marie des Neiges Ruffo présente un premier risque important : l’absence de distinction entre les cibles légitimes et celle qui ne le sont pas : "Il existe un droit de la guerre, qu’on appelle le droit international humanitaire. Il faut donc faire la distinction entre un militaire et un civil, et il faut toujours que la cible visée soit un objectif militaire". Or, l’utilisation d’un robot diminue cette capacité de distinction : "Un robot va détecter une signature humaine, mais il ne saura pas s’il s’agit d’un millitaire, d’un civil, d’un enfant, d’une femme enceinte, etc. Et même un soldat, s’il s’est rendu, n’est plus une cible sur laquelle vous pouvez tirer. Donc on ne peut pas automatiser la totalité de la guerre, sinon elle deviendra encore plus inhumaine".

"Un humain a la capacité de douter"

Ce manque de distinction "militaire-civil" est d’autant plus important que selon MDN Ruffo, il y a très souvent des civils dans les conflits actuels : "Sur les terrains de guerre et de conflit, il y a toujours des civils. Et c’est d’autant plus le cas dans les guerres contre les terroristes, car ils savent qu’on aura tendance à ne pas tirer sur les civils. Ils vont donc les utiliser comme boucliers humains".

Elle ajoute qu’en robotisant la guerre comme on robotise une chaine d’assemblage, on fait la même chose que sur cette chaine d’assemblage… On enlève l’humain : "La conséquence de ça, c’est qu’on accroit la violence. Le robot touche sa cible 99 fois sur cent. Un humain, lui, a la capacité de douter, avant de tirer, et de se demander s’il a devant lui un civil, un enfant, ou autre. En utilisant uniquement es algorithmes, on perd la main sur des choix qui relève de la vie ou de la mort. Il y aura de plus en plus de morts, mais ce n’est pas pour ça qu’on va pouvoir faire la paix".

"Les robots de ne savent pas faire la paix"

Parlant de "paix", l’auteure arrive à un deuxième constat : les guerres menées par des robots tueurs ne finiraient jamais : "Tuer un maximum de gens n’est pas une stratégie qui va mener à la paix. Prenons un exemple. L’une des grandes victoires de l’Union européenne et de la démocratie, c’est d’avoir créé l’Union, ce qui n’était possible qu’à la condition qu’on fasse la paix entre deux nations depuis longtemps ennemies, à savoir la France et l’Allemagne. Mais cette capacité à faire la paix, c’est quelque chose qu’on ne peut faire qu’entre humains. Et si on a vraiment tout délégué à la machine, avec qui l’ennemi d’en face pourra-t-il faire la paix ?".

Pas de paix. Et donc des conflits qui s’enlisent : c’est bien le reflet des guerres actuelles : "Elles ne s’achèvent jamais vraiment. Alors oui, aujourd’hui, il y a un certain nombre de victoires contre l’Etat islamique, par exemple, et tant mieux. Mais le fait que les conflits soit latent n’est pas une bonne chose. Et la robotisation n’y est peut-être pas complètement étrangère. Le fait d’utiliser des drones en Afghanistan (par les Etats-Unis), c’est l’utilisation d’une arme qui s’est substitué à une stratégie. C’est-à-dire qu’on a pensé que la solution était uniquement technique. On n’a pas planifié une stratégie sur le long terme, on a pensé à une tactique à court terme. On s’est donc enlisé dans une situation qui est néfaste et qui se gangrène. Et c’est d’ailleurs similaire dans nos sociétés avec l’algorithmocratisation de nos décisions. Mais il faut se rappeler qu’au début et à la fin, il y a toujours des humains".

MDN Ruffo conclut en réfutant une idée préconçue sur les SALA : "On a essayé d'étendre l’idée que si c’est fait par une machine, c’est plus propre. Il y a d’ailleurs cette expression langagière assez affreuse : les frappes chirurgicales. Parce qu’un chirurgien c’est précis, c’est propre. Mais un chirurgien, normalement, ça soigne, cela ne tue pas".

 

 

 

 

 

 

 

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK