Contact
communication [at] ens-paris-saclay.fr (Communication)
Au carrefour de la science informatique et des sciences humaines

En parallèle de ses travaux sur les réseaux sociaux, Fabien Tarissan travaille depuis 2013 avec des juristes sur les jurisprudences des Cour pénale internationale, Cour de justice de l’UE et Cour européenne des droits de l’homme. « L’apport de l’analyse quantitative sur la manière dont les juges motivent leurs décisions a révélé l’importance sous-estimée de certains jugements dans la manière de penser le droit. C’est une contribution de la science informatique à la compréhension de la pratique des juges et ce qu’elle révèle du droit ».

La justice à l'heure des algorithmes prédictifs ?

Avec l’accélération de la numérisation de nos sociétés, les algorithmes transforment les conditions de la décision dans tous les domaines. Chercheur en informatique au CNRS, rattaché à l’ISP et enseignant à l’ENS Paris-Saclay, Fabien Tarissan s’intéresse depuis plusieurs années au domaine de la justice. Son approche éclaire utilement les enjeux sociétaux de l’intelligence artificielle

Une justice alogorithmique ?

La confrontation du droit à la science informatique offre matière à réflexion alors qu’il est désormais possible d’imaginer un futur dans lequel les algorithmes rendraient la justice. La justice prédictive, que Fabien Tarissan préfère nommer « justice algorithmique », est déjà une réalité depuis une dizaine d’année aux Etats-Unis. Les juges utilisent des programmes informatiques pour estimer le risque de récidive ou de non présentation d’un prévenu à son procès avant de décider s’il doit rester en liberté provisoire ou être placé en détention préventive.

En France, ces technologies n’ont pas encore fait leur entrée dans les tribunaux. En revanche, elles se propagent au sein de cabinets d’avocats séduits par les solutions de deux starts-up créées en 2016 et 2017. Que des algorithmes puissent arbitrer une décision de justice interpelle. « Avant d’apprécier leur légitimité, l’important est de comprendre le raisonnement de ceux qui défendent leur utilité », avance le chercheur.

Des modèles prédictifs… très conservateurs

D1ijBs-WoAAHrLM.jpg large.jpgDans un contexte de judiciarisation croissante des activités, les algorithmes « prédictifs » sont présentés comme des outils d’aide à la décision. Leur puissance et leur rapidité de calcul permettent de traiter un nombre de données bien supérieur à celui qu’un cerveau humain pourrait absorber en un temps limité.

Premier argument, l’efficacité. La prédiction repose sur une analyse potentiellement exhaustive de la jurisprudence.

Autre argument, l’objectivité supposée d’un modèle affranchi de tout affect… «  Les algorithmes prédictifs sont des algorithmes d’apprentissage. On leur demande d’apprendre à apprécier la dangerosité d’un prévenu à partir des caractéristiques d’une affaire et des variables qui peuvent peser sur la décision de remise en liberté. Progressivement, le modèle va pondérer les critères pour atteindre un optimum, celui de la conformité de ses propres choix avec les décisions prises dans le passé par les juges. Peut-on vraiment parler d’objectivité ? » nuance le chercheur. Si certaines études basées sur des simulations montrent qu’à taux de détention préventive équivalent le taux de récidive pourrait chuter de 25 %, d’autres mettent en évidence le renforcement des discriminations : aux Etats-Unis, les Afro-américains qui ne récidivent pas sont plus souvent catégorisés à haut risque que les Blancs, tandis que les Blancs qui récidivent sont estimés moins dangereux que les Afro-américain.

Nécessaire pluridisciplinarité des approches

En France, les avocats défendent ces outils qui leur permettent d’optimiser une stratégie juridique ou de quantifier les risques d’une affaire. Juges et professeurs de droit expriment leur scepticisme face à une appréciation algorithmique réductrice.

« Chacun défend ses positions. Quels que soient les domaines, la science informatique ne peut répondre seule aux enjeux de société. Le recours massif aux algorithmes appelle un effort important d’information et d’éducation pour outiller intellectuellement les citoyens et les décideurs. La compréhension des modèles permet de poser les bonnes questions. Pourquoi lorsqu’il y a erreur, ce sont toujours les mêmes qui sont impactés ? Si l’intelligence artificielle vise à automatiser les tâches répétitives, que fait-on du temps libéré ? C’est en croisant les regards scientifiques que l’on avancera sur le sujet », conclut Fabien Tarissan.

Son parcours de chercheur et son cours à l’ENS sur les « Enjeux numériques du monde contemporain » ouvrent la voie. On y croise autant d’étudiants en informatique et mathématique qu’en sciences humaines et sociales.