Le logiciel Compas est censé éclairer les prises de décision des juges en leur signalant la possibilité que tel ou tel individu puisse récidiver ou pas.  (Photo: Adobe Stock / phonlamaiphoto)

Le logiciel Compas est censé éclairer les prises de décision des juges en leur signalant la possibilité que tel ou tel individu puisse récidiver ou pas.  (Photo: Adobe Stock / phonlamaiphoto)

Se pourrait-il qu’un jour nous devions répondre de nos actes non plus devant un juge, mais face à un ordinateur biberonné à l’IA et au machine learning? C’est déjà le cas aux États-Unis avec le logiciel Compas. Celui-ci est censé éclairer les prises de décision des juges en leur signalant la possibilité que tel ou tel individu puisse récidiver ou pas. Une intervention qui peut avoir de lourdes conséquences, puisqu’en fonction du résultat, la personne peut être libérée ou incarcérée.

Compas tire ses prédictions de l’algorithme créé par la société Northpointe Inc. Cette dernière conserve jalousement son secret de programmation, consentant tout de même à livrer quelques précisions. On sait ainsi que son IA analyse quelque 140 réponses fournies par l’accusé – qui ont trait à son environnement familial, éducatif, etc. – avant de rendre son pronostic. Impossible en revanche de connaître les principes de fonctionnement des algorithmes.

La justice est donc condamnée à espérer que les décisions soient justes. Le site d’investigation ProPublica a mené l’enquête et fait ressortir des inégalités de traitement selon la couleur de peau: «Les accusés noirs sont beaucoup plus susceptibles que les blancs de se voir attribuer à tort un risque plus élevé de récidive.» D’après ce site d’investigation, l’algorithme de Compas reproduirait tout bonnement les discriminations raciales qui émaillent les décisions de justice rendues ailleurs aux États-Unis sans apport de l’IA.

L’IA ne doit pas effacer le rôle du juge

L’IA juridictionnelle pose d’autres problèmes. Elle traite notamment des masses importantes de données personnelles qu’il faut préserver de toute fuite, violation ou commercialisation. Par ailleurs, à vouloir rendre une justice prédictive basée sur des statistiques, le danger consiste à enfermer des individus dans leur passé, faisant fi de la notion de seconde chance. Des réserves qui n’empêchent pas certains pays européens d’expérimenter des logiciels d’aide à la prise de décision.

Il s’agit alors de désencombrer les tribunaux, pas de rendre la justice. Ces outils numériques permettent de traiter un grand nombre de données pour faire ressortir, par exemple, les cas de jurisprudence. Là encore, le risque est de voir se transformer de simples outils facilitateurs du travail des juges en une foire à la sélection où il deviendrait possible de s’adresser en priorité aux juridictions ayant précédemment rendu des décisions avantageuses pour tel ou tel type d’affaires. 

L’intrusion du big data dans les tribunaux ne peut effacer le travail du juge, qui doit conserver la maîtrise de la sentence. Par ailleurs, selon Antoine Garapon, magistrat et secrétaire général de l’Institut français des hautes études sur la justice, «la justice prédictive doit rendre publics ses algorithmes et ne pas se réfugier derrière le secret de fabrication». Sans quoi, tout accusé pourrait douter de la décision prise à son encontre, voire même la contester du fait qu’elle repose tout ou en partie sur d’obscurs algorithmes.