L'intelligence artificielle bat enfin les humains dans un jeu multijoueur

L'intelligence artificielle bat enfin les humains dans un jeu multijoueur
L'intelligence artificielle bat enfin les humains dans un jeu multijoueur - © monsitj - Getty Images/iStockphoto

C'est officiel: les machines vont vous détruire. En tout cas si vous êtes un professionnel du jeu vidéo.

 

Une équipe de programmeurs d'une société d'intelligence artificielle britannique a formé des "agents" autonomes à un jeu de tir à la première personne multijoueur, qui sont devenus si bons qu'ils ont battu des humains. Une première.

L'exploit a valu à l'équipe de DeepMind, filiale de la maison-mère de Google, Alphabet, une publication dans la très cotée revue Science.

Jusqu'ici, les ordinateurs avaient battu les humains dans des jeux mais en face à face, un contre un: Deep Blue a battu Garry Kasparov aux échecs en 1997, et AlphaGo de Google a battu le grand maître sud-coréen du jeu de go Lee Se-Dol en 2016.

Les jeux multijoueurs étaient une tout autre affaire, car ils requièrent une compétence humaine complexe: la coopération et le travail en équipe, dans des environnements complexes.

 

Les programmeurs, menés par Max Jaderberg, ont utilisé une version modifiée de l'illustre jeu Quake III Arena, sorti pour la première fois en 1999 et qui reste populaire dans le monde de l'esport.

Le mode choisi était "Capture the Flag", ou capture du drapeau. Les joueurs doivent saisir le drapeau de l'équipe adverse tout en protégeant le leur. Cela les oblige à attaquer et à défendre en même temps, ce qui requiert de la stratégie.

Les agents se sont entraînés seuls sur le jeu, puis ils ont affronté des testeurs professionnels de jeux vidéos (humains).

"Même après 12h de pratique, les testeurs humains ne réussissaient à gagner que 25% des parties contre l'équipe d'agents", rapportent les auteurs de l'étude.

La performance des machines est restée supérieure même lorsque leur temps de réaction a été ralenti au niveau humain.

 

Pas d'usage militaire

Pour former leurs agents autonomes, les programmeurs ont eu recours à ce qui s'appelle l'apprentissage par renforcement.

"Au départ, ils ne savaient rien du monde et ils agissaient de façon complètement aléatoire: ils se cognaient dans tous les coins", explique Max Jaderberg.

Les programmeurs leur ont seulement donné un objectif: capturer le drapeau. Les agents ont dû développer leur propre système de récompense interne pour chaque action nécessaire à l'obtention du résultat.

 

Une autre innovation a consisté à entraîner plusieurs agents ensemble, et non séparément. Les chercheurs se sont rendu compte qu'ils progressaient beaucoup plus vite en groupe.

Les programmeurs ont aussi inculqué à leurs agents "2 vitesses de pensée", du nom du livre du psychologue et prix Nobel d'économie Daniel Kahneman.

"Une partie de l'agent réagit très vite et met à jour ses propres convictions très rapidement, tandis qu'une autre partie de l'agent les met à jour plus lentement. Ces deux types de convictions s'influencent mutuellement et façonnent la perception du monde de l'agent", explique Max Jaderberg.

 

L'équipe de DeepMind préfère ne pas faire de commentaire quand on l'interroge sur d'éventuelles utilisations militaires de ce type d'intelligence artificielle.

DeepMind a déclaré comme principe de ne jamais travailler avec les secteurs militaire et de la surveillance. Le mot "tirer" n'apparaît même pas dans l'article publié dans Science (les auteurs préfèrent écrire que les agents pointent un laser sur leurs adversaires).

En revanche, conceptuellement, l'équipe imagine pouvoir utiliser ces intelligences artificielles pour résoudre des problèmes du monde réel, dit Max Jaderberg.