Les robots tueurs arrivent : peut-on les laisser faire ?

Aucun cas n’a encore été signalé jusqu’aujourd’hui, mais le jour approche où un robot armé prendra la décision d’éliminer un humain. Les progrès de la robotique, de l’intelligence artificielle et de la miniaturisation sont fulgurants. Mises ensemble au service d’objectifs militaires, ces avancées donnent des résultats stupéfiants. Leurs fabricants les appellent des "systèmes d’armement autonomes". Leurs opposants, de plus en plus nombreux, préfèrent les qualifier de "robots tueurs".

Cette évolution crée "des situations où la décision de tuer sera prise par une machine, et non plus par une personne. Ce transfert de responsabilité de l’homme à la machine pose toute une série de problèmes, notamment d’ordre juridique et militaire", écrit Stan Brabant, Directeur adjoint du GRIP qui vient de publier une étude sur le sujet.

En Corée du Sud, le robot sentinelle

Ces robots sont déjà opérationnels sur certains théâtres d’opérations. La Corée du Sud a déployé depuis des années des robots sentinelles dans la zone frontalière avec la Corée du Nord. Ils ressemblent plus à des tourelles de tirs qu’à des humanoïdes type Robocop: le système SGR-A1 développé par Samsung Techwin est équipé de caméras, de micros, de haut-parleurs et d’une mitrailleuse.

Surnommé "l’infatigable", il dispose d’un mode de traitement automatique des cibles. Selon Amnesty International, "son système de reconnaissance vocale lui permet, le cas échéant, si elle repère des intrus qui ne possèdent pas les bons mots de passe et ne s’arrêtent pas à ses tirs de semonce, de les abattre." Le mode de fonctionnement automatique n’aurait jamais été activé.

Plus récemment, la Russie a déployé en Syrie son nouveau robot terrestre Uran-9, développé par la firme Kalachnikov Concern. Il s’agit d’un petit blindé sans pilote doté d’un canon de 30 mm, de quatre missiles antichars à guidage laser et d’une mitrailleuse.

L’Uran-9 peut être télécommandé jusqu’à une distance de 3 kilomètres, ou opérer en mode autonome. Kalachnikov a publié des vidéos montrant, selon l’entreprise russe, un système de détection automatique de cibles (des formes humaines) capable d’ouvrir le feu et de les éliminer. Officiellement, ce mode autonome n’aurait jamais été utilisé contre des cibles syriennes. Mais le patron de Kalachnikov juge que "la Syrie est un excellent terrain d’entraînement permettant de révéler les côtés faibles et forts de toute arme".

Le robot a montré le fonctionnement instable du canon automatique de 30 mm, le déclenchement intempestif des circuits de lancement et la défaillance du canal d’imagerie thermique de la station de visée optique

"C’est un domaine qui évolue très rapidement et où l’information filtre au compte-goutte", reconnaît Stan Brabant. "En grattant, on obtient certains éléments d’un puzzle qui nous donne une image générale de la situation qui est particulièrement inquiétante."

L’agence russe RIA Novosti a reconnu que "le robot a montré le fonctionnement instable du canon automatique de 30 mm, le déclenchement intempestif des circuits de lancement et la défaillance du canal d’imagerie thermique de la station de visée optique".

La technologie n’est donc pas encore totalement au point, mais on s’en approche à grands pas. La Chine développe, elle, un navire de guerre autonome pour surveiller les côtes, le JARI.

Reconnaissance automatique de cible

Le constructeur israélien Rafael travaille de son côté sur la miniaturisation et l’interconnexion des robots militaires. "Ces machines largement autonomes sont alimentées par des systèmes d’intelligence artificielle, ce qui leur permet de mener des missions pour le compte de leurs propriétaires de manière indépendante, écrit le Times of Israel. Cette capacité à identifier les menaces potentielles, à les catégoriser et à les hiérarchiser, appelée 'reconnaissance automatique de cible', est déjà utilisée dans un certain nombre de systèmes Rafael, y compris dans le missile SPICE 250, où des capteurs électro-optiques avancés identifient les cibles et dirigent le projectile dessus."

Cette capacité des robots à décider de manière autonome d’ouvrir le feu sur une cible fait entrer l’art de la guerre dans une nouvelle dimension. "Imaginez une situation où les robots décident eux-mêmes d’entrer en conflit, s’inquiète Stan Brabant, des robots de deux camps qui s’affronteraient entre eux, vous auriez des conflits incontrôlables. On n’a pas idée à quoi cela pourrait aboutir. Dans les conflits actuels, l’existence de victimes militaires et civiles provoque une certaine retenue. Même des États les plus totalitaires de la planète sont prudents par rapport à l’usage de la force armée. Si vous abaissez le seuil d’utilisation de cette force, où ce sont les robots qui décident du déclenchement des hostilités ou des frappes, vous êtes dans une situation dangereuse dont on perdrait le contrôle."

L’équilibre est rompu

Une intelligence artificielle aurait-elle un comportement plus rationnel qu’un humain face à une menace potentielle ? Pour Stan Brabant, elle aurait surtout moins de retenue : "A partir du moment où vous n’avez plus la capacité qu’a le militaire de faire la balance entre l’intérêt militaire et l’impact humanitaire, l’équilibre est rompu. Certains militaires eux-mêmes le disent. L’arme et son logiciel sont développés des années avant d’être utilisés. Il est illusoire d’imaginer qu’elle va respecter le droit et avoir le souci de protéger les civils."

Les robots tueurs posent en effet la question de la responsabilité, par exemple en cas de bavure ou de crime de guerre. Qui faut-il incriminer : le fabriquant de l’arme, le programmateur de l’algorithme, le militaire qui a envoyé le robot ou l’échelon politique qui a permis son utilisation ?

Depuis six ans, on tourne en rond. En attendant, les fabricants ont les mains libres pour faire ce qu’ils veulent

"Depuis 2014, les États en débattent à la CCW, la Convention sur les armes conventionnelles, explique le chercheur du Grip. La Belgique va d’ailleurs en assurer la présidence en 2021. Depuis six ans, on tourne en rond, et la technologie a déjà progressé. En attendant, les fabricants ont les mains libres pour faire ce qu’ils veulent. Il est temps de lancer un autre processus, comme on a eu pour obtenir l’interdiction des mines antipersonnel et les armes à sous-munition. La Belgique avait d’ailleurs joué un rôle moteur en ce sens. Il faut espérer qu’un processus similaire puisse se constituer sur ce sujet."

78 États ont déjà plaidé pour une interdiction totale de ces armes, et une coalition de 170 ONG a lancé une campagne contre les robots tueurs. L’accord de gouvernement belge de septembre 2020 prévoit que "notre pays prendra l’initiative en vue d’arriver à un cadre réglementaire sur les systèmes des armes entièrement autonomes, en vue d’une interdiction internationale". Mais pour Stan Brabant, la Belgique qui a joué un rôle moteur par le passé "est aujourd’hui un peu à la traîne sur ces questions. Elle reste très attachée à la CCW et se cache derrière d’autres États comme la France et les Etats-Unis. Elle pourrait jouer un rôle plus proactif."

Newsletter info

Recevez chaque matin l’essentiel de l'actualité.

OK