18 juillet 2024

L’IA va-t-elle remplacer les juges ? 

L’idée de substituer juges et avocats par des intelligences artificielles semble encore relever en France de la science-fiction. Pourtant, aux États-Unis, la justice prédictive fait son chemin, malgré des accusations de biais raciaux. Mais les chercheurs ne sont pas tous d’accord sur les limites à apporter à ces logiciels dans les tribunaux.

Les robes noires déambulent quotidiennement sous les immenses arcades, les pas résonnent. Les juges, magistrats et avocats se pressent dans la salle des pas perdus de la cour d’assises de Paris. Certains ont des paquets de dossiers plein les bras, les autres récitent les premières phrases de leur réquisitoire ou de leur plaidoirie. 

Imaginez maintenant, la même salle, le même décor mais à la place des humains, des robots. Ou plutôt des intelligences artificielles. C’est l’utopie, ou la dystopie, vers laquelle semble tendre certaines cours américaines. Sans aller jusqu’à les remplacer, les magistrats peuvent désormais s’aider de logiciels. Le but, « rendre accessible le droit aux citoyens« , selon Valentin Callipel, avocat et chargé de mission au Laboratoire de cyberjustice à l’université de Montréal. JusticeBot, le logiciel développé par ses équipes, vulgarise le droit locatif et apporte une aide juridique : vers quelle branche du droit se tourner ? A quels articles de loi faut-il se référer ? L’algorithme est depuis continuellement amélioré pour le rendre de plus en plus fiable.  

À l’université de York, en Angleterre, c’est sur un autre tribunal que Dimitrios Tsarapatsanis s’est penché : la Cour européenne des droits de l’homme. En analysant 300 décisions, il a conclu que l’intelligence artificielle confirmait les décisions des juges dans 79% des cas. Le résultat est satisfaisant mais le chercheur tempère : « C’est plutôt un succès mais l’algorithme ne s’est prononcé que sur la violation ou non de la loi. C’est seulement une analyse textuelle, donc pas aussi complète que celle des juges humains ».

Des biais raciaux prouvés

Mais d’autres logiciels sont cette fois-ci de réelles aides à la décision. L’outil Big Data Compas, créé en 2001 par l’entreprise Northpointe, va plus loin. Il permet de calculer un « score de risque de récidive », de 1 à 10. Autrement dit, il prédit la probabilité qu’un accusé se retrouve à nouveau devant la justice, dans les deux ans après avoir purgé sa peine. Pour cela, il se base sur des informations sur le passé et la situation du potentiel récidiviste : entourage familial, addiction, niveau d’éducation… Mais aussi des réponses à des questions d’ordre moral : « Quelqu’un qui meurt de faim est-il légitime à voler ? » ou « A quelle fréquence vous ennuyez-vous ? » 

Problème : quatre journalistes d’investigation ont enquêté sur l’efficacité de cet algorithme. Sur le site de l’ONG ProPublica, ils dénoncent des biais raciaux. Le système surestime le risque de récidive des personnes noires, et sous-estime celui des personnes blanches. Richard Berk, professeur émérite à l’université de Pennsylvanie, ne s’en alarme pas : « L’intelligence artificielle n’est pas parfaite, mais les humains non plus. Nous faisons des erreurs tout le temps. » Faut-il alors que des lois limitent l’usage d’algorithmes par les juges ? La réponse est catégorique : « Si des règles s’appliquent à l’IA, ils doivent aussi s’appliquer aux humains. » 

En Europe, une charte éthique sur l’utilisation des logiciels dans la justice existe déjà. Non contraignante pour les Etats membres, elle édicte de grands principes, rappelant par exemple le droit à un procès équitable. Pour Dimitrios Tsarapatsanis, il n’y a donc pas besoin de nouvelles règles : « On peut par exemple imaginer que le droit à la propriété intellectuelle s’applique maintenant au numérique. » Une position soutenue par Valentin Callipel : « Dans l’IA Act de l’Union Européenne, le législateur a identifié les hypothèses dans lesquelles l’IA doit être soumis à un contrôle systématique dans le monde de la justice. » 

La directive vise notamment à prévenir l’arrivée en Europe d’affaires de plus en plus fréquentes aux Etats-Unis : certains détenus s’offusquent d’avoir été jugé par un algorithme. Dans l’Etat du Wisconsin, Eric Loomis a été condamné à six ans de prison par une juge s’était aidée du logiciel Compas. Il a ensuite demandé à avoir accès au code de l’algorithme. Une requête rejetée par la Cour suprême américaine. 

By samin

Related Post