L’intelligence artificielle (IA) est présentée comme la technologie de rupture de notre décennie et, peut-être même du siècle. Ses applications, sans cesse plus nombreuses, ont dépassé la simple reconnaissance d’images ou de sons pour investir des tâches complexes auparavant dévolues à des experts humains. Les promesses faites par les ingénieurs-entrepreneurs sont nombreuses, les approximations actuelles des modèles mathématiques de leurs IA ayant vocation à être améliorées en ajoutant sans cesse plus de données.
La justice n’a pas échappé à cet assaut, notamment à l’initiative privée de startups spécialisées (legaltechs). Aux États-Unis, c’est la justice pénale qui a été investie de la manière la plus significative avec l’ambition de révéler la dangerosité des individus. Le débat a été vif à la suite d’une enquête de l’ONG Propublica révélant en 2016 des biais sous-jacents conduisant à défavoriser les populations afro-américaines. En France, c’est la justice civile qui est le champ d’opération des legaltechs (plus nombreuses d’ailleurs qu’aux États-Unis) avec une première promesse, maladroite : « prédire » le montant d’indemnisation de certains contentieux (rupture de contrat de travail, divorce, préjudice corporel, etc).
La logique est assez simple : analyser, à l’aide des méthodes statistiques avancées des générations actuelles d’IA (apprentissage automatique et apprentissage profond), des masses importantes de jurisprudence pour en identifier des constantes. Pour le reformuler, identifier quels facteurs influent le montant prononcé par le juge (durée du mariage, nombre d’enfants, salaires des ex-conjoints pour les prestations compensatoires par exemple).
Le terme « prédiction », et de « justice prédictive », a été toutefois assez mal reçu par la communauté juridique, notamment académique, et a été rapidement assimilé à une justice robotisée, ayant vocation à remplacer les juristes par des machines. Des précautions de langage seront vite prises par les promoteurs de ces solutions pour rassurer l’opinion publique et – surtout – leurs principales cibles : les directions juridiques d’entreprises, dont les assureurs, ou les cabinets d’avocats moins que les juges eux-mêmes.
L’on retrouve donc aujourd’hui la promesse de « prédiction » reformulée sous d’autres termes, tels que « justice quantitative », « justice actuarielle », « évaluation du risque judiciaire » ou construction de « référentiels », mais la logique reste la même : identifier automatiquement des récurrences statistiques dans les motivations de jugement pour les trier, les classifier et proposer ainsi des fourchettes d’indemnisation plus ou moins fines.
Les plus ambitieux allèguent même être parvenus à « modéliser la pensée du juge » et ainsi quantifier l’aléa judiciaire ou le taux de succès d’une action contentieuse. La plupart ont toutefois modéré leur communication et attendent fermement l’ouverture des données de justice (open data) pour optimiser leurs algorithmes et enrichir leur offre. Mais quelle est la réalité derrière ce que l’on pourrait estimer être des pétitions de principe ?
Pour l’observateur averti, la recherche de preuves solides est extrêmement complexe. Certaines études académiques proviennent en effet directement ou indirectement de ces mêmes ingénieurs-entrepreneurs, dans le but de valider leurs applications commerciales. Les études objectives et documentées sont rares, voire inexistantes, car aucun des entrepreneurs ne souhaite faire la publicité de ses secrets de fabrication. Des études comme celles de l’University College London (UCL) sur la jurisprudence de la Cour Européenne des droits de l’homme, parue en 2016, n’utilisent pas nécessairement l’exacte technologie de certaines des legaltechs françaises, mais laissent déjà entrevoir la partie visible de l’iceberg : l’ambition n’est pas de reproduire un raisonnement juridique, mais d’identifier des fréquences de groupes lexicaux pour les lier à un type de décision (violation ou non-violation de la Convention européenne des droits de l’homme pour l’étude d’UCL).
Et c’est certainement là la source d’un grand malentendu : en pensant qu’une décision judiciaire est une matière première suffisante pour en inférer des constantes, c’est méconnaître la réalité de la matière juridique et de la formalisation du raisonnement opéré par les juges. Tous les éléments causatifs ne sont pas nécessairement traduits et le risque de confusion entre corrélation et causalité est substantiel : la garde des enfants dans le cadre des divorces est confiée plus souvent aux mères qu’aux pères. Faut-il y voir un lien avec la féminisation des magistrats de première instance ? Cette assertion nécessite en réalité d’être confrontée à bien d’autres facteurs pour se rendre compte, notamment, que les pères ne sont peut-être pas majoritaires à la demander.
On comprend dès lors l’extrême prudence que nous devrions avoir face à ces applications de l’IA, sans diabolisation, mais qui découle d’un simple principe de précaution. L’apprentissage automatique ou profond n’est pas la solution universelle à tous les problèmes et leurs réelles performances pour certaines tâches devraient nous conduire à identifier des cas d’usages pertinents, comme pour l’amélioration de la performance de moteurs de recherche de jurisprudence.
Plus inquiétant, nous devrions rester attentifs à ce que ces aventures ne banalisent pas l’émergence d’une « norme issue du nombre », dans ce qui est devenu un marché du droit, sans autre fondement que les arbitrages opérés par des concepteurs n’ayant reçu aucun mandat démocratique.