La justice prédictive par la Revue des Juristes

Par Alix MESLIER, Étudiante au sein du Master Droit économique. 

La justice prédictive une mémoire de substitution ? Notion récente évoquée par une partie de la presse mais aussi par une partie des professionnels du droit : elle se définit comme un logiciel (blockchain, intelligence artificielle, legaltech) reposant sur la jurisprudence, c’est-à-dire sur l’ensemble des décisions des juridictions en tant qu’elles constituent une source de droit ainsi que principes juridiques qui s’en dégagent. Le logiciel réalise un calcul à partir d’une base de données portant sur la fréquence des décisions rendues par les tribunaux sur une affaire type permettant ainsi de dégager des algorithmes mesurant les risques courus dans l’engagement d’une procédure. Ces algorithmes agrègent, analysent et croisent des milliers de données issues des décisions de justice déjà prononcées. On peut ainsi connaître à l’avance ses chances de gagner son procès, les indemnités allouées dans des cas de figure comparables, la durée prévisible de la procédure ou encore les arguments qui ont le plus pesé sur la décision du juge, etc.  

 

Le contexte général est celui du projet de loi de Jean Jacques Urvoas sur la modernisation de la justice du XXIème siècle entré en vigueur le 19 novembre 2016. Cette réforme judiciaire souvent appelée « J21 » a notamment eu pour vocation de répondre aux nouveaux enjeux technologiques, sociaux et éthiques. La réforme « J21 » adapte ainsi la justice aux évolutions de la société. De même, la loi pour une république numérique[1] fut promulguée le 7 octobre 2016 et va dans ce sens d’ouverture des données et de ces connaissances. 

 

Malgré l’enthousiasme général à l’idée d’un progrès technologique important, certaines craintes apparaissent. Aujourd’hui, d’une part, les évolutions technologiques qui émergent dans le domaine du droit permettent de répondre à son besoin de modernisation (I). D’autre part, l’intelligence artificielle (IA) effraie, notamment quand elle peut porter atteinte à nos libertés (II).

 

I – La justice prédictive répond aux difficultés rencontrées par la justice 

 

            La justice protège, décide et sanctionne. Elle est une institution qui veille au respect des lois et préserve les droits de chacun. Elle fait partie intégrante des fonctions régaliennes de l’Etat. Malgré sa tâche capitale dans la vie quotidienne de chacun, la justice française est confrontée à un manque d’efficacité conduisant à une perte de confiance dans son institution.

 

Une justice plus efficace : l’aspect quantitatif 

 

            Selon Antoine Garapon connu pour être une véritable référence de cette question d’IA lors d’une interview donnée en 2018 à Thomas Coustet : le numérique serait « un remède à la lenteur de la justice ». « En ce sens, la justice prédictive est également une activité économique, représentant un espoir voire un rêve, car les transformations en cours sont d’une profondeur insoupçonnable », ajoute-t-il dans un article en 2020.[2]

 

Etat des lieux du problème d’efficacité : 

 

            En effet, les délais des décisions sont souvent blâmés. En effet, en matière pénale par exemple, une affaire est conduite devant le juge deux ou trois ans après les faits.

 

            Le développement des algorithmes prédictifs, fondés sur l’ouverture progressive, mais massive et gratuite des bases de jurisprudence à tous – l’open data –, accélérera de facto le règlement des litiges. Pour l’instant réservées aux professionnels, ces boules de cristal juridiques sont d’un usage élémentaire, rapide et actif. L’avocat renseigne par exemple la plateforme sur les circonstances de la rupture du contrat de travail, l’ancienneté du salarié, le type de travail effectué, chacun de ces éléments agissant comme mots clés. Très efficacement, l’outil filtre la jurisprudence potentiellement applicable au cas concerné. Les magistrats pourront eux aussi comparer leur affaire à la moyenne des décisions rendues dans des cas similaires et éviter de rendre des jugements disproportionnés. 

            Selon Surden[3], le constat est le suivant : l’avocat, combine à la fois un raisonnement abstrait (voire théorique) et résout des problèmes dans un environnement légal et factuel incertain (jurisprudence, modification de la loi). L’IA est quant à elle capable de répliquer la plupart des capacités de réflexion humaines, se trompant à de très rares exceptions dans le processus de réflexion. Ainsi l’utilisation de la data permet l’accélération de la réflexion juridique.

              On peut imaginer que certaines actions cesseront d’être menée devant les tribunaux, car on en connaîtra leur issu défavorable. Il y aura davantage de règlements à l’amiable, de participation à la privatisation de la justice, et donc un gain d’argent, de temps, en bref ce fameux : désengorgement des tribunaux

 

Les différents logiciels prédictifs : 


              La première se baptise machine learning. Elle n’est pas très utilisée car très couteuse. Néanmoins, elle est dotée d’une grande autonomie et dépassant les logiciels experts elle n’est pas nécessairement supervisée par un être humain.

              Le second est le natural language processing (NLP) qui repose uniquement sur des analyses syntaxiques. 

              Ce sont deux inventions qui ne sont pas encore au point puisque le second par exemple ne fait pas encore la différence entre licéité et illicéité à cause d’un problème de logique.

 

Exemple du logiciel ROSS

 

              Aujourd’hui « environ un tiers du temps facturable des collaborateurs est consacré à la recherche juridique », précise Dan Jansen, CEO de NextLaw Labs, dans une interview donnée à Carrières-Juridiques.com. Ainsi lorsque ROSS Artificial Intelligence Outperforms, qui commence à être usité dans le droit américain travaille : on parle d’un gain de temps de 30% (étude financée par IBM). L’antenne parisienne du cabinet américain Latham & Watkins est en phase de test avec Ross, suivi par de plus petites structures et ne cesse donc de se développer puisqu’il grandit de son interaction homme-machine. Il s’améliore en apprenant des retours des juristes sur ses recherches.

 

              En plus de l’aspect quantitatif qui permet un gain de temps et d’argent, la justice prédictive promettrait une justice plus sûre.  

 

Une justice plus sûre : l’aspect qualitatif 

 

              L’opinion publique n’a pas une réelle confiance en la justice résidant dans l’imaginaire d’un décalage entre sa tâche et ses capacités mais aussi sa grande part d’aléa. Elle ne serait pas assez juste et objective. Certains pensent qu’elle ne respecte pas la présomption d’innocence, ce, même après la loi du 5 mars 2007 qui allait dans le sens de la Commission Outreau visant à encadrer le juge. Ainsi en 2019, 53% des Français disent ne pas avoir confiance en la justice[4].

 

              La justice prédictive promettrait en ce sens d’offrir plus de sécurité juridique aux justiciables. Cette théorie d’augmentation de la sécurité a été conceptualisée et développée par Harry Surden, professeur à Stanford et à l’université de Cornell. Pour lui, l’homme et l’IA doivent collaborer pour améliorer la qualité de la justice. 

 

  • D’abord parce que le désengorgement des tribunaux et l’efficacité croissante du système juridique va redonner confiance aux justiciables : les jugements étant libérés de tâches répétitives et moins complexes, le tout au profit des tâches ardues qui nécessitent du temps et de la concentration. La justice deviendrait plus rapide, sûre et efficace.
  • Ensuite, parce que la machine va améliorer la prévisibilité des décisions de justice. L’avocat aidé d’une IA donne les probabilités de succès devant un tribunal montrant les indemnités susceptibles de toucher. En effet, par leur utilisation les juges connaîtront mieux les pratiques juridictionnelles de leurs confrères et les parties pourront déterminer plus précisément les chances de succès d’une procédure juridictionnelle, ainsi que les moyens les plus pertinents à soulever. C’est un avantage pour les justiciables et avocats mais aussi pour les entreprises qui peuvent étudier leur chance de se voir condamner en cas de contentieux prud’hommal par exemple. On quantifie précisément le risque juridique.
  • Enfin le couple open data/algorithmes devrait favoriser l’accès au droit et l’égalité devant la justice ainsi que la stabilisation, l’harmonisation et la convergence de la jurisprudence.

 

              Si on se fie à cette interprétation d’un droit dirigé en partie par L’IA, il deviendrait alors une science dure, au même titre que les mathématiques, c’est-à-dire, émancipé de tout aléa, d’intuition ou d’émotion et reposant sur des données fiables des décisions passées. Cela pose problème puisque la jurisprudence devrait toujours pouvoir être remise en question.

 

              Ainsi, malgré ces progrès envisageables on ressent une méfiance latente de la population face à ces avancées. Beaucoup sont effrayés que le droit repose sur des logiciels car au-delà de l’efficacité demandée à la justice, le justiciable attend aussi de cette dernière qu’elle soit sociale, éthique et humaine explique Antoine Garapon dans sa théorie générale du droit digital.

 

II- Une compatibilité faussée par les limites de l’intelligence artificielle

 

              Jean Marc Sauvé, Vice-président du Conseil d’Etat jusqu’en 2018, s’est exprimé le 12 février de la dernière année de son mandat lors d’un colloque sur le thème de la justice prédictive organisé à l’occasion du bicentenaire de l’Ordre des avocats au Conseil d’État et à la Cour de cassation. Il alerte les juristes en appelant à faire « preuve d’une grande vigilance sur l’intangibilité des principes d’une justice indépendante, impartiale, transparente, humaine et équilibrée, qui se garde de tout automatisme et de tout psittacisme ». Cela rejoint le caractère sacré que l’on confère à la justice propre à la personne d’un juge en robe : qu’« un seul et même juge peut adopter des solutions divergentes dans des affaires présentant les mêmes caractéristiques »[5]. Il existe une crainte que les machines puissent un jour dire le droit.[6]

              Néanmoins, cette idée selon laquelle tous les magistrats s’opposeraient à la justice prédictive est à désamorcer au début de cette partie en effet : selon une étude menée sur 197 magistrats[7] dont 67 ont répondu : 85% d’entre eux sont favorables à ce mode algorithmique d’analyse des décisions.

 

              Il demeure du reste qu’en droit, on juge la vie d’individus. L’enjeu est majeur et laisser sa vie entre les mains d’une machine est encore difficilement acceptable pour la population.

 

Un problème de responsabilité et de fiabilité

 

La responsabilité est au cœur des débats dans le cadre d’une intelligence artificielle. En droit, la responsabilité civile se divise en deux branches : délictuelle et contractuelle. Aux termes de l’article 1231-1 du Code civil, « le débiteur est condamné, s’il y a lieu, au paiement de dommages et intérêts, soit en raison de l’inexécution de l’obligation, soit à raison du retard dans l’exécution ». Elle intervient quand le créancier n’a pu obtenir exécution de la chose, selon les termes du contrat, de la part de son débiteur. La responsabilité de l’avocat peut dès lors être engagée en cas de faute dans l’exercice de sa profession.

 

              Donc on voit que malgré l’espoir que peut donner la justice prédictive, plane le spectre de la responsabilité professionnelle. Comment l’avocat expliquera-t-il à son client que la « machine » l’a orienté vers un « mauvais procès » plutôt que vers une médiation réussie, ou lui a conseillé une stratégie qui s’est finalement révélée perdante ? Lorsque l’avocat fait une erreur et que le résultat de sa décision est désavantageux pour son client, ce dernier voit à travers le fautif un homme. Ici, dans le cadre de l’IA prenant une mauvaise décision : le blâme est plus difficile à porter. Malgré la précision, l’efficacité, la très faible propension à faire une erreur, même plus faible que celle d’un homme : il est préoccupant dans l’imaginaire du justiciable de confier sa vie à un robot. L’aspect humanisé du droit peut rassurer le client à l’inverse d’une machine qui offre l’impression latente d’un manque de fiabilité. Même si les algorithmes prédictifs pourraient permettre d’éviter une longue et coûteuse procédure dans un litige et dont la part d’aléa paraît réduite, l’accès au juge et les principes du procès équitable doivent rester la règle. Le recours au juge ne doit pas être dissuadé sur la base de données qui ne seraient pas entièrement fiables et qui pourraient même être biaisées.

              La fiabilité du jugement est donc remise en cause par l’IA car : « On a confiance en un juge parce qu’il est indépendant et humain », souligne Maître Winston Maxwell, avocat associé chez Hogan Lovells, spécialiste en régulation numérique. « En Angleterre, au XVIIe siècle, il existait deux formes de justice, l’application de la loi pure et dure, et le tribunal en équité sous la responsabilité du roi, qui permettait de pallier la rigidité de la première », poursuit-il. L’IA fait penser à cette première forme de justice qu’on a abandonné il y a plusieurs siècles, un retour en arrière semble donc inenvisageable. Certains disent alors que la justice prédictive n’est pas acceptable, car chaque cas est unique et qu’elle ne prendrait pas assez en compte certaines subtilités la rendant inéquitable. 

 

              Et pourtant, si on offrait au robot la capacité de devenir équitable et de reproduire le schéma humain, on prendrait le risque qu’elle intègre quelques bassesses humaines en fonction de ce qu’elle a côtoyé : la rendant dangereuse. Elle peut tomber dans le piège des préjugés comme cela peut arriver à l’homme. « L’intelligence artificielle s’appuie, pour beaucoup, sur une analyse du passé. Même si un algorithme n’est pas biaisé, en principe, il réintègre les biais humains », reprend Winston Maxwell. Il donne l’exemple de Tay, l’intelligence artificielle lancée par Microsoft qui en mars 2016 qui s’est mise à tenir des propos racistes, antisémites et misogynes en quelques heures. Censée apprendre au fil de ses échanges avec les internautes, elle s’est mise à ressembler à ceux qu’elle a côtoyés en ligne alors qu’un juge n’est pas censé prendre en compte les avis de tous mais suivre son avis supérieur. 

 

Une rigidification dangereuse du droit et donc un manque d’adaptabilité à des évolutions de la société

 

Rigidification du droit lié à la perte de liberté d’appréciation du juge : 

 

              Le risque des logiciels prédictifs est également que le juge, sous l’effet de la surveillance résultant d’un traitement massif des décisions de justice, perde sa liberté d’appréciation, son indépendance et préfère se ranger, par « sécurité », à l’opinion dominante ou majoritaire de ses pairs. On constaterait à terme une perte d’indépendance de l’autorité judiciaire pourtant inscrite à l’article 64 de la Constitution : « Le Président de la République est garant de l’indépendance de l’autorité judiciaire. Il est assisté par le Conseil Supérieur de la Magistrature. Une loi organique porte statut des magistrats. Les magistrats du siège sont inamovibles. » Ici, les risques cités de la justice prédictive vont totalement à l’encontre de la notion de droit telle qu’elle est entendue dans la Constitution.

              Le propre de la justice est que chaque affaire doit être examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il. Même dans un contentieux de masse ou très répétitif, l’expérience et la capacité personnelles et professionnelles des juges sont essentielles. 

              Sinon : le droit risque de se retrouver dans une phase stationnaire, c’est-à-dire qu’aucune évolution ne pourra être apportée dans la conception de la matière juridique puisque tous les résultats seront déjà consignés dans un algorithme. Il en résulterait une rigidification du droit. En effet, le droit dans sa pratique n’a pas comme seule source le texte, la coutume, le contexte. Certains points de de l’enquête, ou même le regard innocent du condamné peuvent eux aussi jouer un rôle normatif et coercitif. « Dans une décision de justice subsiste un aléa irréductible. D’un cas à l’autre, le même juge ne va pas prendre la même décision. La justice prédictive est un concept non seulement vide de sens car il n’y a rien à prédire, mais dangereux car la machine ne va pas prédire mais prescrire », disait Jacques Lévy Vehel ancien chercheur à l’Institut national de recherche en informatique et en automatique (Inria), qui a cofondé Case Law Analytics avec le magistrat Jérôme Dupré.

 

              Il insistait surtout sur les débats lors d’une audience, importants pour rendre une décision juste « À un moment, il faut que les gens puissent parler, et on ne peut pas faire l’économie d’un débat contradictoire », insiste Jacques Lévy Vehel. Pour lui il y a un risque avec le fait de régler trop de questions en amont. Certaines choses méritent d’être débattues et pas d’être renvoyées à la jurisprudence.

 

Rigidité et manque de renversement de jurisprudence pourtant inhérent à la notion de justice

 

              Les revirements de jurisprudence de la Cour de cassation, explique le professeur Joël Monéger, resteront très difficiles à anticiper pour un algorithme. On peut imaginer que les résultats produits par les algorithmes risquent d’être répétés et amplifiés et toute décision « atypique », même justifiée, risquant de paraître inacceptable, si elle n’est pas très fortement motivée. S’il est aisé d’ordonner à une machine de respecter un texte de loi, il est pratiquement impossible de lui demander d’effectuer un revirement de jurisprudence dans un cas précis, car le choix est parfois politique et nécessite une conscience (or la machine n’a pas de conscience). Le renversement de jurisprudence serait rendu impossible. En effet, la machine, pour prédire un résultat, utilise des probabilités, ce qui implique qu’elle réalise des moyennes. Or si un juge décide de changer de jurisprudence et que la machine se fonde sur les données inscrites dans son logiciel et en fait une moyenne, le résultat sera contraire à celui du juge. L’algorithme se fait ici le chantre du conservatisme du droit, puisqu’il empêche tout revirement. Sans porter de jugement de valeur, on peut constater que son utilisation conférera au droit un uniformisme certain. 

 

              On se rend compte que l’adaptabilité de cette technologie pose aujourd’hui question, notamment dans les pays dans lesquels le droit coutumier joue un rôle important. 

 

Conclusion : 

 

              Dans ce « passionnant bouillon intellectuel de propositions que véhicule l’essor de l’IA » pour reprendre les mots très justes de Y. Meneceur[8] nous dirons ici qu’elles se révèlent pleines de promesses et d’avancées, mais renvoient une image figée – et parfois approximative – de la justice. Donc à la question qu’on peut se poser sur la compatibilité entre le droit tel qu’on l’entend et cette invention : l’issue est un peu mitigée. Il faut d’autre part garder un certain recul et relativiser même si ce sont des questionnements très actuels. « L’IA est un outil d’aide à la décision, mais elle ne va pas remplacer le juge. Elle ne passera jamais le test de constitutionnalité », disait Maître Winston Maxwell. En effet, le système doit avoir des garanties.

              Aucune réelle révolution copernicienne n’est en cours. En effet, le 6 juillet, le vice-président du Conseil d’Etat, Bruno Lasserre, la présidente du CNB, Christiane Féral-Schul, et le président de l’Ordre des avocats aux Conseils, Louis Boré[9] se sont montrés protecteurs de la justice telle que nous la connaissons en exprimant leur adhésion aux « principes de la charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes et leur environnement, adoptée par la commission européenne pour l’efficacité de la justice du Conseil de l’Europe en décembre 2018. » Il sera nécessaire que la justice prédictive assure le respect des droits fondamentaux, s’assure contre la non-discrimination, garantisse qualité et sécurité, la transparence ainsi que la maîtrise par l’utilisateur.

Dans notre droit, il y a toujours quelqu’un pour regarder par-dessus l’épaule d’un juge, il est soumis à une instance supérieure (La Cour d’appel, la Cour de Cassation), il doit également motiver sa décision (article 455 CPC). Il en sera de même pour ces innovations qui devront être « encadrées par les services du ministère de la justice. » d’après plusieurs magistrats interrogés[10] dans une enquête concernant la justice prédictive. Nous sommes, pour des raisons politiques et techniques, à des années lumières de voir les robots prendre le travail des juges, puisque l’ordinateur ne va pas encore jusqu’au bout du raisonnement, il documente l’avocat sur les cas de jurisprudence qui ressemblent au dossier mais laisse encore la place à la réflexion de l’homme.

De plus, si un avocat dévoile au client que 40 juges ont pris une décision en sa défaveur et 20 juges en sa faveur, il explique simplement le risque à son client mais reste libre d’engager malgré tout une procédure en décidant qu’un bon procès vaut mieux qu’un mauvais accord. Avant tout, c’est la manière plus ou moins intelligente et efficace dont seront utilisées ces technologies qui sera intéressante plus que le risque imaginaire d’une prise de contrôle du droit ; l’unanimité du monde judiciaire restant en effet conservateur face à ce risque.[11]

 Il faut cependant rester vigilant et la protection d’institutions qui doivent garder leur part de conservatisme est essentielle. En tout cas, nous restons loin de Min

[1] LOI n° 2016-1321 du 7 octobre 2016 pour une République numérique.

[2] Antoine Garapon, Les enjeux de la justice prédictive, 2020.

[3] Harry Surden, Machine Learning and Law, Washington Law Review, 2014.

[4] Sondage Ifop réalisé pour le Club d’Express, 2019.

[5] Jean Marc Sauvé, Des juges sous influence, Cahiers de la Justice, 2015/4, p. 499.

[6] Pierre Januel, Les réticences du milieu judiciaire face aux légal techs, Dalloz Actualité, 23 juillet 2019.

[7] P. Januel, article Dalloz actualité, 31 mai 2019.

[8] Yannick Meneceur, L’intelligence artificielle en procès, Plaidoyer pour une réglementation internationale et européenne, 2020.

[9] Marie Christine de Montecler, Appel à réguler les outils de justice prédictive, 2020.

[10] T. Coustet, Dalloz actualité, 13 juill. 2018.

[11] A. Portmann, Dalloz actalité, 27 oct. 2017.