[SERIE Intelligence artificielle, la révolution] Le juge est un algorithme

[SERIE Intelligence artificielle, la révolution] La justice
[SERIE Intelligence artificielle, la révolution] La justice - © Pixabay

C'est une première mondiale. Et c'est en Europe que cela se passe. D'ici à la fin de l'année, l'Estonie sera le premier pays au monde où la justice sera rendue par un programme d'intelligence artificielle. Il s'agira uniquement de cas bien précis, comptables : des excès de vitesse, des indemnités de licenciement... Et cela ne concernera que les litiges inférieurs à 7000€. Malgré ces balises, il y a un malaise. De nombreux magistrats, chez nous ou ailleurs, ont crié au scandale. Avec un argument central : la justice doit rester humaine.

Mais au fond, pourquoi l'humain serait-il plus performant pour juger un acte
qu'une machine qui aurait emmagasiné toute la jurisprudence possible ?
Qui sera le plus impartial, de l'humain ou de la machine? 
Quelle est finalement la plus-value de l'humain
et quelle est celle de l'ordinateur dans cette matière délicate qu'est la justice ?
_______________________

Pour Adrien Vanden Branden, avocat au barreau de Bruxelles, auteur du livre Les robots à l'assaut de la justice, c'est une opportunité exceptionnelle pour les juges. Ils vont pouvoir se décharger de la partie répétitive des litiges : retraits de permis, amendes routières contestées... et se concentrer sur les cas les plus intéressants. 

"Les juges-robots prendront une partie de leurs tâches, leur laissant les cas beaucoup plus intéressants et plus épanouissants intellectuellement, tout en étant plus relax dans leur manière de travailler."

Adrien Vanden Branden est donc très enthousiaste pour l'avenir. Pour lui, la justice est un domaine typiquement fait pour l'intelligence artificielle : il y a, d'un côté, d'immenses bases de données, à savoir tous les jugements, toutes les décisions de justice rendues. Et, de l'autre, des avocats qui doivent y chercher des informations, selon différents critères. Il s'agit de consulter la jurisprudence, un travail fastidieux. 


La solution : l'algorithme

Les premières applications à la justice de l'intelligence artificielle visent donc à faciliter la recherche de l'information dont on a besoin pour argumenter un cas, via les précédents ou les jugements passés. Des moteurs de recherche existent déjà. doctrine.fr en France est le plus impressionnant, avec les 7 millions de jugements qu'il propose.

Grégoire Thomas est le directeur marketing de doctrine.fr. Le moteur de recherche a été créé suite à une enquête IFOP qui montrait que 88% des avocats en France ont des difficultés à accéder à l'information dont ils ont besoin pour conseiller et défendre leur client. En effet, parmi la masse d'informations qui existe, comment réussir à trouver l'aiguille dans la botte de foin, qui va permettre d'obtenir gain de cause pour son client ?

doctrine.fr est une sorte de moteur de recherche ultra-perfectionné et personnalisable. Toute l'information est accessible, cette information tellement colossale que le cerveau humain n'est pas capable de la traiter. "La rendre intelligible, c'est déjà comprendre ce que sont les liens sous-jacents entre différentes informations, par exemple le lien entre un texte de loi et les décisions de justice qui vont le citer."

Le juriste, l'avocat, n'obtient pas UNE information, mais tout un faisceau d'informations pertinentes et reliées entre elles autour des mots-clés de recherche qu'il a encodés. Et c'est l'algorithme de doctrine.be, le méga-cerveau de la boite, qui trouve ces liens. Ce n'est pas l'information qui est valorisée, mais la capacité à restituer la bonne information.

Grégoire Thomas a constaté avec surprise que s'il y a bien 80% d'avocats parmi ses clients, il y a aussi de plus en plus de directions juridiques d'entreprises. Ils y trouvent une information qui correspond à leurs enjeux business, qui leur permet de prévenir l'aléa juridique, d'avoir une veille juridique beaucoup plus performante, de prendre les décisions adéquates.
 

Prévenir l'aléa juridique

Quand on a toutes les données entre les mains, quand on sait comment des cas similaires ont tourné par le passé, on peut prédire ou en tout cas sentir le vent tourner sur certaines décisions. Et cela nous amène à un concept central lorsque l'intelligence artificielle se met au service de la justice. C'est en quelque sorte le stade suivant, après celui du moteur de recherche.  C'est le stade de la justice prédictive.

Le logiciel permet de donner une estimation très fine des chances de succès d'un cas devant la justice, bien au-delà d'un simple pourcentage, mais en précisant les conditions du jugement, explique Adrien Vanden Branden. Les données sont introduites dans un logiciel qui les analyse, les compare avec tous les jugements de cas similaires et rend des probabilités sur le cas donné.


La robotisation de la justice

Cela nous amène au stade ultime, celui où c'est la machine qui tranche le litige. C'est ce qu'on appelle la robotisation de la justice : la résolution des litiges est totalement automatisée. Le filtre du juge est supprimé et c'est l'algorithme qui prend la décision.

Bonne nouvelle, se diront certains. Rien de tel qu'une machine pour trancher, quoi de plus impartial et fiable ! 

En 2016, une enquête édifiante sort aux Etats-Unis. Elle concerne l'algorithme Compas Pre-trial, utilisé par de nombreux juges. Ce logiciel développé par la société Northpointe calcule le taux probable de récidive d'un condamné. Et en fait, il est raciste. Compas attribue un score élevé ou moyen de récidive probable deux fois plus souvent pour les condamnés noirs que pour les blancs.

On a pu démontrer que l'algorithme ne faisait que répéter des biais raciaux profondément ancrés dans la justice pénale américaine, où ce sont majoritairement des juges blancs qui rendent les décisions et qui ont tendance, en cas de doute, à juger qu'un individu noir est plus dangereux qu'un individu blanc.

L'algorithme doit être nourri de données et de critères. Si ces données et ces critères présentent un biais, l'algorithme va les reproduire et pourra même les accentuer. En l'occurrence, il a révélé le biais de la justice humaine.

C'est une grande leçon à retenir de cet exemple : la technologie n'est jamais neutre. Il faudra donc superviser la fabrication de ces algorithmes, baliser leur conception avec des dispositions légales, et les rendre transparents et publics.  


Accepter le juge-robot ?

Pourquoi la justice nous semble-t-elle, intuitivement, devoir rester entre les mains des humains, alors qu'on voit que, moyennant un cadre strict, il y a des intérêts évidents à utiliser l'intelligence artificielle dans ce domaine ?

C'est parce que la justice ne se limite pas à des amendes pour excès de vitesse ou à des calculs d'indemnités de licenciement. Il y a des procès où l'on parle de liberté d'expression, de crimes graves ou de garde d'enfants après un divorce. Des domaines qui demandent de la nuance, de l'empathie, de l'écoute, de l'humanité.

Pour Adrien VandenBranden, il faut robotiser les litiges uniquement si cela permet de rendre une décision plus efficiente, c'est à dire une décision qui optimise le rapport entre la qualité de la décision, la vitesse et le coût. Chaque cas doit être examiné à la lumière de ces critères. Et si, dans la qualité d'une décision, le critère humain est nécessaire, il faut bien entendu laisser ce cas à un juge humain. 

L'avenir, ce sera donc peut-être cette complémentarité du juge et de la machine dans les tribunaux. Une complémentarité qui devra être pensée, balisée et être éthiquement irréprochable. 

Newsletter La Première

Recevez chaque vendredi matin un condensé d'info, de culture et d'impertinence.

OK