Intervention de Jean-Marc Sauvé à l'occasion du colloque organisé à l’occasion du bicentenaire de l’Ordre des avocats au Conseil d’État et à la Cour de cassation le 12 février 2018.
<a href="/admin/content/location/60031"> Lien à reprendre : > télécharger au format pdf</a>
Colloque organisé à l’occasion du bicentenaire de l’Ordre des avocats au Conseil d’État et à la Cour de cassation
La justice prédictive
Cour de cassation, Lundi 12 février 2018
Intervention de Jean-Marc Sauvé[1], vice-président du Conseil d’État
Monsieur le président de l’Ordre des avocats aux Conseils,
Monsieur le premier président de la Cour de cassation,
Monsieur le procureur général,
Mesdames et Messieurs,
La justice a toujours été confrontée à de multiples défis : celui de son indépendance, celui de son efficacité et de sa qualité, celui de ses ressources, celui des technologies de l’information… Certains ont été surmontés, d’autres demeurent, parfois sous d’autres formes. De nouveaux défis, inédits et passionnants, se présentent aujourd’hui à nous et annoncent peut-être le bouleversement de l’accès au juge et de son office, comme des méthodes de travail des magistrats, greffiers et auxiliaires de justice. Après l’essor d’internet et de la dématérialisation, l’open data des décisions de justice[2], couplé au développement des algorithmes et de l’intelligence artificielle, soumettent en effet le juge à un défi nouveau : celui de la justice prédictive, qui doit s’inscrire au cœur de notre réflexion prospective, de nos projets et de notre vigilance.
I. La justice prédictive est porteuse de transformations majeures, mais ambivalentes.
A. Elle promet certes des évolutions bénéfiques pour la qualité et l’efficacité de la justice.
1. Les algorithmes prédictifs, fondés sur l’ouverture progressive, mais massive et gratuite des bases de jurisprudence à tous – l’open data –, visent à accélérer le règlement des litiges et à accroître la sécurité juridique, en améliorant la prévisibilité des décisions de justice. En effet, par leur utilisation les juges connaîtront mieux les pratiques juridictionnelles de leurs collègues et les parties pourront déterminer plus précisément les chances de succès d’une procédure juridictionnelle, ainsi que les moyens les plus pertinents à soulever. En retour, le couple open data/algorithmes devrait favoriser l’accès au droit et l’égalité devant la justice ainsi que la stabilisation, l’harmonisation et la convergence de la jurisprudence. Il est certes des méthodes plus classiques et tout aussi efficaces pour parvenir à cette fin. Mais l’unité et la cohérence de la jurisprudence peuvent, c’est vrai, gagner aux développements technologiques prévisibles à court terme.
2. Le recours à des algorithmes pour le traitement des dossiers les plus répétitifs et les plus simples, ceux par exemple qui ne nécessitent que l’évaluation d’un dommage, l’application d’un barème ou d’une trame prédéterminée, encouragerait aussi le règlement de nombreux litiges en amont même du recours au juge, par le développements des modes alternatifs de règlement, comme la médiation ou la conciliation. En réduisant le temps passé aux recherches fines fondées sur des éléments de fait et de droit comparables, l’utilisation des algorithmes permettrait également aux juges de se décharger des tâches les plus chronophages au profit de l’examen des questions nouvelles ou complexes[3]. Il en résulterait, selon les cas, un évitement du recours à la justice lorsque le résultat est certain ou un allègement de son travail. La justice prédictive favoriserait ainsi le recentrage des juges sur les dossiers pour lesquels leur expertise apporte une plus grande valeur ajoutée.
Il découlerait de ces évolutions une plus grande confiance dans la justice, les jugements pouvant être purgés de leur part d’aléa et les juges étant libérés de tâches répétitives ou moins complexes, le tout au profit d’une justice plus rapide, sûre et efficace[4].
B. Les progrès de la technologie ne doivent cependant pas masquer des risques pour l’office du juge et l’accès à la justice.
1. D’une part, le risque des logiciels prédictifs est que le juge, sous l’effet de la surveillance résultant d’un traitement massif des décisions de justice, perde sa liberté d’appréciation et son indépendance et préfère se ranger, par « sécurité », à l’opinion dominante ou majoritaire de ses pairs. Or, le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il. Même dans un contentieux de masse ou très répétitif, l’expérience et la capacité personnelles et professionnelles des juges sont essentielles. Or, les algorithmes sont programmés pour réaliser des tâches ciblées, à partir d’un large vivier de données[5]. Ils ne le sont pas pour répondre à des questions ouvertes, ni pour définir de leur propre initiative les questions juridiques qui se posent, au moins indirectement ou par rebond. Ce que le juge comprend de la hiérarchie des normes et des relations entre les ordres juridiques nationaux et européens, un algorithme ne semble pas pouvoir en l’état le saisir. C’est pourquoi le juge doit rester maître de la question posée autant que de l’interprétation du résultat donné par les algorithmes et des conséquences à en tirer[6].
2. D’autre part, si la prévisibilité du droit est nécessaire, elle ne doit pas figer la jurisprudence. Parce que les avocats sauront plus sûrement demain quels sont les moyens fondés ou pas, et parce que les juges pourraient être dissuadés de s’écarter de la tendance majoritaire des décisions de justice, les résultats produits par les algorithmes risquent d’être répétés et amplifiés et toute décision « atypique », même justifiée, risquera de paraître inacceptable, si elle n’est pas spécialement et très fortement motivée[7]. Les algorithmes risquent ainsi de cristalliser la jurisprudence, alors que celle-ci doit au contraire être non pas rétrospective, mais apporter une solution concrète à un litige présent et, plus largement, accompagner les évolutions législatives, économiques et sociales. Ilsrisquent en outre de conférer une force excessive à des solutions majoritaires, mais pas forcément pertinentes : le nombre est une chose, la justice en est une autre. Lorsque l’on connaît le rôle que la jurisprudence administrative a joué dans la construction et l’adaptation du droit administratif français, on frémit à l’idée que des algorithmes puissent brider la liberté du juge et l’on en vient à s’interroger sur leur pertinence même.
3. Enfin, s’il est vrai que la « prescience » des algorithmes prédictifs pourrait permettre d’éviter une longue et coûteuse procédure dans un litige dont la part d’aléa paraît réduite, l’accès au juge et les principes du procès équitable doivent rester la règle. Le recours au règlement alternatif des litiges doit être encouragé lorsqu’il est possible, mais il ne saurait faire obstacle au procès. En outre, comme toutes les probabilités, les résultats proposés par les algorithmes surtout dans des configurations ouvertes et non pas fermées, comme le jeu de gô ou les échecs, comportent une part d’aléa et le recours au juge ne doit pas être dissuadé sur la base de données qui ne seraient pas entièrement fiables et qui pourraient même être biaisées.
II. L’open data et la justice prédictive promettent des progrès dont nous devons nous saisir, mais dans le respect des principes fondamentaux de la justice.
Quelques principes directeurs doivent guider notre réflexion et notre action sur ce sujet qui s’impose en tout état de cause à nous et que nous ne saurions par conséquent éluder.
A. Les juges doivent conserver leur liberté d’appréciation et leur indépendance.
Le développement des algorithmes prédictifs ne doit pas aboutir à ce que l’intelligence artificielle se substitue, à terme, à l’analyse juridique et au raisonnement personnel du juge. Ce dernier doit continuer à exercer ses fonctions en toute indépendance en appliquant au litige dont il est saisi les textes et la jurisprudence pertinents et il doit le faire en considération des faits et circonstances propres à chaque affaire dans le cadre d’un débat qui doit, même en visioconférence ou en mode virtuel, rester public et contradictoire et qui pourra d’ailleurs être plus aisément accessible et archivé. Si, dans un souci de sécurité juridique, il faut éviter la méconnaissance ou les revirements aléatoires de la jurisprudence, l’analyse statistique et algorithmique ne saurait être un prétexte à des comportements mimétiques irréfléchis[8]. L’intelligence artificielle et l’intelligence humaine doivent se combiner et se renforcer mutuellement, la première ne pouvant prétendre remplacer l’autre, comme le souligne à juste titre M. Cédric Villani[9]. L’adossement à l’intelligence humaine est d’autant plus essentiel que le taux actuel de sûreté des algorithmes prédictifs en droit ne semble pas, en l’état, excéder 70%, ce qui n’est pas si élevé et ne saurait fonder des certitudes[10]. Le risque mimétique que j’évoque est à ce stade limité, l’article 10 de la loi du 6 janvier 1978 interdisant en principe de se fonder sur des traitements automatisés pour établir le profil d’une personne et rendre une décision[11]. Le juge peut toutefois dès maintenant prendre appui sur des statistiques pour étayer et légitimer un raisonnement juridique adossé à d’autres justifications[12].
B. L’utilisation des algorithmes doit être fondée sur les principes de neutralité et de transparence.
1. La neutralité des algorithmes ne saurait être présumée. Chaque jour qui passe nous révèle au contraire les présupposés dont ils sont porteurs. Il a ainsi été démontré que les algorithmes utilisés pour calculer le risque de récidive des prévenus reproduisent les biais ou préjugés sociaux de leurs concepteurs[13]. Les résultats proposés par les logiciels prédictifs ne se bornent pas en effet à fournir une information désincarnée ; ils agissent comme un signal : celui d’une tendance ou d’une interprétation majoritaire, qui a ensuite vocation à influencer le processus décisionnel. Il faut être lucide sur le fait que le recours aux algorithmes risque d’être performatif ou auto-réalisateur, voire carrément perturbateur, comme on l’observe sur les marchés financiers ou ceux des obligations depuis le début de ce mois. Il en résulte que la méthodologie retenue dans le traitement des données disponibles en open data doit être explicite et transparente[14], pour que les utilisateurs puissent comparer et discuter les résultats et obtenir des explications sur les différences, voire les erreurs ou les biais, qu’ils pourraient constater. En particulier, il est essentiel que le juge et les parties puissent débattre du contenu et des résultats des algorithmes – ceux qui suggèrent des rédactions et, plus encore, ceux qui proposent des solutions – pour être en mesure de ne pas subir passivement leurs résultats, le cas échéant. La traçabilité et la régulation des algorithmes doivent aussi être, dans toute la mesure du possible, assurées ou du moins sérieusement recherchées.
2. Il faut également veiller à la neutralité et la complétude des sources jurisprudentielles mobilisées dans le cadre de l’usage des algorithmes. Dès maintenant, apparaissent des asymétries problématiques entre les parties que le juge n’est pas toujours en mesure de corriger. C’est le cas dans certains litiges relevant du droit de la consommation, pour la résolution desquels apparaissent des biais dans la sélection des décisions jurisprudentielles de référence. L’impact de ces biais est potentiellement d’autant plus important que le règlement du litige est pré-juridictionnel.
C. Enfin, pour que les juges et les avocats puissent continuer à se repérer dans des informations même exhaustives et interactives, il est nécessaire de conserver une certaine hiérarchisation de la jurisprudence.
L’open data a tendance à araser toute différence entre les niveaux des décisions de justice, à remettre en cause toute hiérarchie entre les différentes formations de jugement. Tout serait égal et tout se vaudrait. Or les arrêts des formations supérieures viennent poser, dans une navigation juridictionnelle parfois périlleuse, des phares et des balises aidant au repérage que la multitude des décisions d’espèce ne doit pas masquer[15]. Il est donc important de maintenir une véritable hiérarchie des décisions en fonction des formations de jugement, si possible en première instance, mais aussi en appel et au sein des juridictions suprêmes. Cet aspect demeure essentiel.
La justice prédictive arrive à grands pas, sans être encore, il faut le reconnaître, pleinement opérationnelle et sûre. Mais les choses pourraient vite changer. C’est donc maintenant qu’il faut réfléchir aux chances et aux risques qu’elle comporte, comme aux conditions impératives de son développement. Celui-ci est déjà en cours avec les Legal Tech et il ne saurait être regardé a priori comme une régression indéfendable. Nous devons accepter cette réalité, nous saisir de ces opportunités, tout en sachant faire preuve d’une grande vigilance sur l’intangibilité des principes d’une justice indépendante, impartiale, transparente, humaine et équilibrée, qui se garde de tout automatisme et de tout psittacisme et qui ne soit pas dépendante de modèles économiques ou de plans d’affaires respectables mais ni désintéressés, ni neutres. Il nous faut aussi, à l’occasion du développement de la justice prédictive, nous interroger sur l’extension possible du périmètre du service public de la justice en amont de la saisine du juge (au stade du règlement pré-juridictionnel) et en aval de sa décision (au stade de l’exécution)[16]. Et aussi sur le mode de gestion de ce service public additionnel. En faisant progresser la réflexion sur ces sujets qui donnent quelque peu le vertige, les juges et les juristes pourront éclairer la prise de décision publique pour que les évolutions en cours soient maîtrisées et que les juges, comme les parties au litige, puissent s’en servir sans y être asservies. Au contraire, si nous pratiquons la politique de l’autruche, ces évolutions se feront sans nous et le résultat pourrait bien plus que nous déplaire : il pourrait mettre notre justice en péril. C’est pourquoi ce colloque est une excellente opportunité pour dresser des constats, esquisser des diagnostics et proposer des orientations, des remèdes ou des limites. Je remercie vivement l’Ordre des avocats au Conseil d’Etat et à la Cour de cassation et son président Maître Louis Boré, d’avoir pris l’heureuse initiative de cette réflexion et la Cour de cassation d’avoir bien voulu l’accueillir.
[1] Texte écrit en collaboration avec Sarah Houllier, magistrat administratif, chargée de mission auprès du vice-président du Conseil d’Etat.
[2]Articles 20 et 21 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique qui prévoient que toutes les décisions de justice doivent être mises à disposition du public à titre gratuit.
[3] T. Cassuto, « La justice à l’épreuve de sa prédictibilité », AJ Pénal, 2017, p. 334. Voir aussi les propos de Cédric Villani rapporté par L. Ronfaut dans l’article « Cédric Villani avance sur l’intelligence artificielle », Le Figaro, 29 novembre 2017.
[4] A. Garapon, « Les enjeux de la justice prédictive », JCP G., 9 janvier 2017, doctr. 31.
[5] C. Villani dans une interview au Figaro, 19 janvier 2018, « L’Europe peut relever le défi de l’intelligence artificielle ».
[6] F. Rouvière, « La justice prédictive, version moderne de la boule de cristal », RTD Civ., 2017, p. 527.
[7] E. Buat-Ménard et P. Gambiasi, « La mémoire numérique des décisions judiciaires. L’open data des décisions de justice de l’ordre judiciaire », Recueil Dalloz, 2017, p. 1483.
[8] Voir sur ce point l’article d’A. Garapon, op.cit. note 4, p. 31.
[9] C. Villani dans une interview au Figaro, 19 janvier 2018, « L’Europe peut relever le défi de l’intelligence artificielle ».
[10] Rapport de l’Institut Montaigne, Justice : faites entrer le numérique, novembre 2017 p. 42.
[11] Article 10 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés : « Aucune décision de justice impliquant une appréciation sur le comportement d'une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de sa personnalité. / Aucune autre décision produisant des effets juridiques à l'égard d'une personne ne peut être prise sur le seul fondement d'un traitement automatisé de données destiné à définir le profil de l'intéressé ou à évaluer certains aspects de sa personnalité. (…) »
[12] Voir sur ce point CE, 4 février 2004, Caisse primaire d’assurance maladie de la Gironde, n° 240023 : si la loi du 6 janvier 1978 fait obstacle à ce qu’une décision de justice soit fondée uniquement sur le traitement automatisé d’information, le juge peut recourir à ces éléments, parmi d’autres éléments d’appréciation, pour éclairer sa réflexion.
[13] P. Cornille, « Justice prédictive : est-ce un oxymore ? », AJFI, juillet 2018, repère 7.
[14]Rapport de la mission d’étude et de préfiguration de l’ouverture au public des décisions de justice, L’open data des décisions de justice, remis à la Garde des sceaux, ministre de la justice en novembre 2017, recommandation n° 20, p. 25.
[15] Voir sur ce sujet l’article de J-H. Stahl, « "Open data" et jurisprudence », Droit administratif, novembre 2016, Repère 10.
[16] Rapport de l’Institut Montaigne, Justice : faites entrer le numérique, novembre 2017 p. 51.