Notes
-
[1]
O. W. Holmes, La voie du droit (1897), trad. L. De Sutter, Dalloz, coll. Tiré à part, 2014, p. 9.
-
[2]
R. C. Lawlor, What Computers Can Do : Analysis and Prediction of Judicial Decisions, American Bar Association Journal 1963, p. 337 s.
-
[3]
R. Keown, « Mathematical Models for Legal Prédiction », Computer/LJ 1980, p. 829 s.
-
[4]
J. A. Segal, « Predicting Supreme Court Cases Probabilistically : the Search and Seizure Cases (1962-1981) », American Political Science Review 1984, p. 891 s.
-
[5]
S. S. Nagel, « Applying correlation analysis to case prediction », Texas Law Review 1963, p. 1006 s.
-
[6]
F. Kort, « Predicting Suprême Court Decisions Mathematically : a Quantitative Analysis of the "Rightto Counsel" Cases », American Political Soence Review 1957, n° 51, p. 1 s.
-
[7]
A. Aft, J. Blackman, C. M. Carpenter, « FantasySCOTUS : Crowdsourcing a Prediction Market for the Supreme Court », Northwestern Journal of Technology & Intellectual Property 2012, n° 10, p. 125 s. ; J. Blackman, M. J. Bommarito, D. M. Katz, « Predicting the Behavior of the Supreme Court of the United States : A General Approach », SSRN Electronic Journal 21 juill. 2014 (disponible à l'adresse <ssm.com/abstract=2463244>).
-
[8]
Ces chercheurs proviennent de l'université de Londres, de l'université de Sheffield et de l'université de Pennsylvanie.
-
[9]
N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, « Predicting Judicial Decisions of the European Court of Human Rights : a Natural Language Processing Perspective », Peer Journal of Computer Soence 24 oct 2016 (disponible à l'adresse <peerj.eom/articles/cs-93/#aff-1>).
-
[10]
N. Bobbio, Essais de théorie du droit, trad. Ch. Agostini, M. Guéret, LGDJ-Bruylant coll. La pensée juridique, 1998, p. 38.
-
[11]
E. Pattaro, « Définir le droit ». Droits 1990, n° 11, p. 47.
-
[12]
On distingue le réalisme américain et le réalisme Scandinave en raison des origines géographiques de ces courants de pensée, mais il existe bien des auteurs qui adhèrent à l'un ou à l'autre en n'étant ni américains ni Scandinaves, y compris en France. Et des théoriciens du droit des États-Unis s'inscrivent davantage dans le courant dit « Scandinave » que dans le courant dit « américain » du réalisme.
-
[13]
Et le plus radical parmi les radicaux fut peut-être Jerome Frank, de l'École de droit de l'université de Chicago. Ce professeur dénonçait l'illusion du « jeu intellectuel » consistant à prétendre identifier des règles dans la loi alors que la pratique réelle des cours et tribunaux dépendrait de tout autres données ; à tel point qu'une décision de justice serait davantage influencée par le « petit déjeuner du juge » que par le contenu de la loi (J. Frank, Courts on Trial - Myth and Reality in American Justice, Princeton University Press, 1950). Appliquant les thèses freudiennes au droit, il proposa l'équation « D = P x S », D étant la décision de justice, P la personnalité du juge et S les stimuli qui le frappent. Le droit, en pratique, serait donc I e résultat de la personnalité du magistrat qui le prononce elle-même conséquence de « ses parents, ses études, ses professeurs, ses condisciples, sa femme, ses enfants [et] les livres lus » (ibid.) et des événements contingents qui influencent son humeur le jour où il le prononce par exemple, la qualité de son repas, le fait d'être le matin ou l'après-midi, le fait d'être avant ou après les vacances (ibid.). Si telles étaient de facto les sources du droit, il aurait été difficile de créer un algorithme capable de prédire la majorité des décisions de justice. D'ailleurs, Jerome Frank imaginait impossible toute anticipation des décisions de justice (ibid.). Mais la bonne équation n'est peut-être pas « D = P x S » mais plutôt « D=L x P x S », L désignant la loi et jouant le rôle essentiel.
-
[14]
J. Carbonnier, Droit civil vol. I : Introduction, Puf, coll. Quadrige, 2004, p. 23.
-
[15]
Et l'ordinateur animé par des algorithmes peut être qualifié de « robot », être doué d'intelligence dite « artificielle » capable de réaliser des actes habituellement propres aux humains, éventuellement plus rapidement et/ou plus précisément qu'eux.
-
[16]
Les chercheurs se sont concentrés sur trois articles de la Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales : l'interdiction de la torture et de tout traitement dégradant (art 3), le droit à un procès équitable (art. 6) et le droit au respect de la vie privée (art. 8) le contentieux lié à ce dernier article étant en pleine recrudescence depuis quelques années du fait des nombreuses révélations sur les opérations d'espionnage et de surveillance.
-
[17]
Selon l'article 74 du Règlement de la Cour, ses arrêts doivent comporter, notamment, « l'exposé de la procédure ; les faits de la cause ; un résumé des conclusions des parties ; les motifs de droit ».
-
[18]
Cela pose la question de la possibilité de reproduire l'expérience à l'échelle de juridictions rendant des décisions plus laconiques.
-
[19]
F. Matscher, « Idéalisme et réalisme dans la jurisprudence de la Cour européenne des droits de l'homme », in Mélanges R. Ryssdal, Carl Heymanns Verlag, 2000, p. 881 s.
-
[20]
F. Matscher, « Les contraintes de l'interprétation juridictionnelle », in F. Sudre, dir., L'interprétation de la Convention européenne des droits de l'homme, Nemesis-Bruylant, 1998, p. 15.
-
[21]
F. Ost, « Originalité des méthodes d'interprétation de la Cour européenne des droits de l'homme », in M. Delmas-Marty, dir.. Raisonner la raison d'État, Puf, 1989, p. 405 ; F. Sudre, « À propos du dynamisme interprétatif de la Cour européenne des droits de l'homme », JCP G 2001, I, p. 335.
-
[22]
Les N-grammes servent à déterminer, en présence d'un certain nombre de mots ou de lettres, quel est le mot ou la lettre qui a la plus grande probabilité d'y être associé.
-
[23]
Gény écrivait en ce sens que la méthode du juge devrait consister « à reconnaître les intérêts en présence, à évaluer leurs forces respectives, à les peser, en quelque sorte, avec la balance de la justice, en vue d'assurer la prépondérance des plus importants, d'après un critérium social, et finalement d'établir entre eux l'équilibre éminemment désirable » (F. Gény, Méthodes d'interprétation et sources en droit privé positif, t I, 2e éd., LGDJ, 1919, p. 167).
-
[24]
Bien sûr, le propos ici tenu concerne essentiellement les juges appartenant aux cours de dernier ressort - ce qu'est la Cour européenne des droits de l'homme -, les juges appartenant aux tribunaux ou aux cours d'appel étant pour leur part forcément influencés par le risque de voir leurs jugements ou arrêts contredits en cas d'appel ou de pourvoi.
-
[25]
J. Dewey, « Logical Method and Law », Philosophical Review 1924, p. 560 s.
-
[26]
O. W. Holmes, op. cit., p. 81.
-
[27]
F. Ost, Dire le droit, faire justice, Bruylant, coll. Penser le droit, 2007, p. 104.
-
[28]
G. Timsit « Raisonnement juridique », in D. Alland, S. Rials, dir., Dictionnaire de la culture juridique, Lamy-Puf, coll. Quadrige-dicos poche, 2003, p. 1295.
-
[29]
Cette conception a connu un certain succès et, en France, jusqu'au Commissaire du gouvernement Chenota pu soutenir que « l'essentiel est le dispositif, les motifs sont construits après » (B. Chenot, « L'existentialisme et le droit ». Revue française des sciences politiques 1953, p. 57 (cité par G. Thuillier, « Probabilisme et art de juger », in D. Alland, S. Rials, op. cit., p. 1216)). Quant à Carbonnier, il enseignait que « tous nos juges jugent d'abord en équité, puis habillent leur équité d'un revêtement de droit logique. On n'a pas une compréhension exacte du droit si l'on ne se dit pas que, bien souvent le juge, et même le juge au niveau de la Cour de cassation, commence par se demander à qui, en équité, il doit donner raison, quitte ensuite à trouver les moyens logiques de lui donner raison. Le processus de l'analyse dogmatique qui montre le juge descendant de la règle de droit vers la décision est bien souvent mis en défaut. En réalité, le juge commence toujours par peser la décision, puis remonte ensuite à la règle de droit. Et comme il y a beaucoup de règles de droit possibles [à partir] d'une même règle, il arrivera toujours, une fois qu'il aura posé sa décision, à découvrir une règle de droit satisfaisante » (J. Carbonnier, Théorie sociologique des sources du droit, Association corporative des étudiants en droit de l'université Panthéon-Sorbonne, 1961, p. 181-182).
-
[30]
X. Magnon, Théorie(s) du droit, Ellipses, coll. Universités-Droit 2008, p. 133.
-
[31]
F. S. Cohen, The Legal Conscience Selected Papers, Yale University Press, 1960 (cité par F. Michaut, La recherche d'un nouveau paradigme de la décision judiciaire à travers un siècle de doctrine américaine, L'Harmattan, coll. Logiques juridiques, 2001, p. 211).
-
[32]
Par exemple, le juge Benjamin Cardozo a promu une méthode de l'utilité sociale devant amener à juger en fonction des conséquences (sociales, économiques, politiques, morales) des décisions et non en fonction du droit positif.
-
[33]
O. W. Holmes, The Common Law, MacMillan, 1881, p. 1.
-
[34]
K. Llewellyn, My Phlosophy of Law, Boston Law Co., 1941, p. 183.
-
[35]
Notamment J-Frank, op. cit.
-
[36]
J. Carbonnier, Théorie sociologique des sources du droit, op. cit., p. 41.
-
[37]
Par exemple, J. C. Hutcheson, « The Judgment Intuitive : the Function of the "Huntch" in Judicial Decision », Cornell Law Quarterly 1929, p. 274 s.
-
[38]
Ils écrivent ainsi : « Notre analyse empirique indique que les faits à l'origine du litige sont le facteur prédictif le plus important. Ceci est cohérent avec la théorie du réalisme juridique suggérant que la prise de décision judiciaire est affectée de manière significative par le stimulus des faits. [...] Nos résultats semblent confirmer que les arrêts rendus par la CEDH se basent principalement sur des arguments non juridiques. [...] [Ils] vont dans le sens de la théorie réaliste selon laquelle les juges sont sensibles au non-droit plutôt qu'au droit » (N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, art. préc.).
-
[39]
V. Champeil-Desplats, C. Grzegorczyk, M. Troper, dir.. Théorie des contraintes juridiques, Bruylant-LGDJ, coll. La pensée juridique, 2005.
-
[40]
M. Troper, « La liberté d'interprétation du juge constitutionnel », in P. Amselek, dir.. Interprétation et droit, Bruylant 1995, p. 242.
-
[41]
A. Ross, On Law and Justice, Stevens & Sons, 1958, p. 34 (cité par Ch. Grzegorczyk, F. Michaut, M. Troper, Le positivisme juridique, LGDJ, coll. La pensée juridique, 1993, p. 325).
-
[42]
Ibid., p. 54 (cité par F. Ost M. van de Kerchove, De la pyramide au réseau ? - Pour une théorie dialectique du droit. Publications des facultés universitaires Saint-Louis, 2002, p. 381).
-
[43]
H. L. A H art. Le concept de droit, trad. M. van de Kerchove, Publications des facultés universitaires Saint-Louis, 1994, p. 155.
-
[44]
Ibid.
-
[45]
Ibid.
-
[46]
L. Baum, The Puzzle of Judicial Behavior, University of Michigan Press, 2009.
-
[47]
B. Leiter, « Legal Formalism and Legal Realism: What is the Issue ? », Legal Theory 2010, n° 16, p. 111 s.
-
[48]
N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, art. préc.
-
[49]
R. Pound, « Mechanical jurisprudence », Columbia Law Review 1908, p. 605 s.
-
[50]
Pour Correctional offender management profiling alternative sanctions.
-
[51]
Si les résultats semblent prometteurs puisque les taux de récidive ont sensiblement diminué dans différents États, Compas a néanmoins été critiqué : quatre journalistes ayant comparé les parcours de 10 000 détenus aux prévisions que l'algorithme avait réalisées les concernant ont constaté un biais ethnique : les Noirs ont été systématiquement jugés plus susceptibles de récidiver, comme si l'un des critères les plus décisifs de l'algorithme résidait dans la couleur de peau (J. Larson, S. Mattu, L. Kirchner, J. Angwin, « How We Analyzed the Compas Recidivism Algorithm », Propublica 23 mai 2016 (disponible à l'adresse <www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm>)). En effet, 44, 9 % des Afro-Américains classés dans la catégorie des individus hautement susceptibles de récidiver n'ont dans les faits pas récidivé dans les deux années suivant leur libération, quand 23, 5 % seulement des personnes blanches classées dans cette catégorie n'ont dans les faits pas récidivé. 47, 7 % des personnes blanches jugées moyennement dangereuses ont récidivé, tandis que 28 % des personnes noires jugées moyennement dangereuses ont récidivé. Les individus noirs ont donc deux fois plus de chances que les individus blancs d'être considérés à tort comme potentiellement récidivistes. Et le procureur général Éric Holder (l'équivalent du ministre de la Justice) de pointer du doigt les risques liés au recours aux algorithmes prédictifs : même s'ils sont conçus « avec les meilleures intentions », ils peuvent « exacerber des disparités injustes et injustifiées qui sont déjà trop communes dans notre système judiciaire et notre société » (cité par A. Fradin, « États-Unis : un algorithme qui prédit les récidives lèse les Noirs », Rue 89, 24 mai 2016 (disponible à l'adresse <rue89. nouvelobs.com/2016/05/24/etats-unis-algorithme-predit-les-recidives-lese-les-noirs-264121>).
-
[52]
N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, art. préc.
-
[53]
Case Law Analytics (<caselawanalytics.com>) quantifie l'aléa judiciaire, anticipe les décisions de justice et détermine le montant en euros que peut espérer toucher un justiciable dans différents 1ypes de litiges.
-
[54]
Predictice (<predictice.com>), service lancé en septembre 2016, offre aux cabinets d'avocats et aux services juridiques des entreprises un outil capable d'estimer les chances d'obtenir gain de cause en cas de procédure judiciaire, cela dans toutes les branches du droit, du droit du travail au droit fiscal en passant par le droit des affaires et le droit administratif. Predictice permet également d'optimiser les stratégies contentieuses en identifiant et hiérarchisant les éléments pouvant influencer positivement l'issue du litige, les arguments pouvant le plus fortement toucher les juges et donc sur lesquels il serait opportun de se focaliser. Enfin, l'algorithme peut fournir une estimation des indemnités obtenues dans le cadre de contentieux similaires préalablement jugés et peut produire une carte des juridictions les plus favorables selon le domaine en cause.
-
[55]
Sur son site officiel (<watson2016.com>), le candidat proposait un programme ambitieux. Et son équipe de campagne pouvait défendre que, si Watson avait intégré la Maison Blanche, étant capable d'analyser beaucoup mieux que quiconque des données complexes et variées, il aurait pris « dans tous les cas les meilleures décisions, quel que soit le domaine, en tenant compte des impacts sur l'économie mondiale, l'environnement, l'éducation, la santé, les relations internationales ou encore les libertés civiles ».
1« Les prophéties relatives aux décisions qu'en fait prendront les cours et tribunaux, et rien de plus » [1], telle est la conception du droit promue par Oliver Wendell Holmes, illustre juge à la Cour suprême des États-Unis et pionnier du courant de théorie du droit dit « réaliste » qui invite à concentrer toute l'attention sur les activités des tribunaux. Certainement savoir ce que les juges feront de leurs cas personnels et non savoir ce que les lois prévoient en termes généraux et impersonnels est-il ce qui intéresse en premier lieu les justiciables. Aussi différents chercheurs ont-ils déjà réfléchi à la possibilité de créer des outils permettant, en croisant les faits et le droit pertinent, d'anticiper les issues des procès. En 1963, l'avocat Reed Lawlor avait jeté les bases d'un traitement informatique des données d'un dossier afin d'anticiper sa recevabilité ou irrecevabilité [2]. Il estimait qu'une compréhension des méthodes d'interprétation des faits et du droit par les juges pourrait permettre de dégager des constances et de réaliser des prophéties scientifiques des décisions qu'en fait prendront les cours et tribunaux. D'autres, au cours du XXe s., se sont essayés à la construction de modèles mathématiques [3] ou reposant sur des probabilités [4] ou des corrélations [5] censés permettre d'anticiper, avec plus ou moins de précision, les jugements et arrêts [6]. Et, plus récemment, le chercheur américain Josh Blackman a mis au point un modèle mathématique grâce auquel les verdicts de la Cour suprême des États-Unis peuvent être déterminés avec un taux de fiabilité atteignant 75 % [7].
2Les récents progrès technologiques, notamment dans les domaines du traitement du langage naturel et de l'apprentissage automatique, ont permis de franchir une nouvelle étape en matière de justice prédictive. Ainsi une équipe de chercheurs [8] en informatique, en psychologie positive, en science de l'information et en droit a-t-elle élaboré un algorithme capable de deviner les décisions de justice en croisant les faits, les arguments des parties et le droit positif pertinent. Les scientifiques ont publié les résultats de leurs recherches le 24 octobre 2016, dans un article intitulé « Predicting Judicial Decisions of the European Court of Human Rights: a Natural Language Processing Perspective » [9]. Capable d'opérer les mêmes choix que les juges-humains dans huit cas sur dix, cet algorithme ne manque pas de réveiller les plus sombres inquiétudes des techno-pessimistes liées à la robotisation des sociétés, l'imagination amenant à anticiper un avenir dans lequel les malfaiteurs seraient arrêtés par des robots-policiers et les litiges tranchés par des robots-juges. Sous un angle plus réaliste, il pose la question d'une évolution des professions judicaires non vers un remplacement des magistrats par des machines « intelligentes » disant le droit automatiquement mais vers une association des magistrats et de ces machines « intelligentes », laquelle pourrait permettre des gains de temps et des économies de moyens considérables. À l'heure où la précarisation de la justice est régulièrement dénoncée, ne faut-il pas voir dans cet algorithme une technologie prometteuse ?
3D'un point de vue plus théorique, le fait qu'un robot soit en mesure de rendre la même justice qu'un humain huit fois sur dix, mais aussi le fait que les décisions du juge-robot et du juge-humain divergent deux fois sur dix, sont peut-être riches d'enseignements. Le grand théoricien du droit Norberto Bobbio observait que, « depuis l'époque de ce qu'on a nommé le fétichisme de la loi, beaucoup d'eau est passée sous les ponts et personne ne croit plus sérieusement au juge automate » [10]. Néanmoins, qu'un juge-humain et un juge-robot, en présence de mêmes faits, aboutissent très souvent aux mêmes solutions, n'est-ce pas le signe d'une justice quasi-machinale ordonnée autour du syllogisme - ce dont il faudrait se féliciter sous l'angle de la sécurité juridique et de la prévisibilité de la justice ?
4 En particulier, l'expérience de justice algorithmique interroge le courant théorique dit « réaliste », lequel se concentre sur le droit en action plutôt que sur le droit des textes, droit en action qui se laisse surtout observer au sein des prétoires. Si le droit se définit comme « la décision du souverain » [11], ce souverain, pour les tenants du réalisme juridique, serait moins le parlement-législateur que le juge. Selon les réalistes, les lois ne feraient pas partie du droit positif ; au mieux, elles seraient une source matérielle, soit une source d'inspiration, et seuls les jugements constitueraient le droit positif. Ils bannissent, quels que soient le contenu de la loi et les données de l'espèce, le recours au raisonnement de type déductif, syllogistique et linéaire. Ensuite, peut-être le cadre d'analyse le plus « réaliste », le plus conforme aux enseignements de l'expérience réside-t-il dans la version scandinave du réalisme - par opposition à sa version américaine [12], plus radicale [13]. Le réalisme scandinave retient que, si les juges sont de fait les véritables créateurs des normes, ils n'en sont pas moins fortement influencés par les lois et règlements, si bien qu'en présence de faits a, un juge humain x, un autre juge-humain y et un juge-robot z en viendront logiquement à prononcer peu ou prou la même décision.
5 Si les tribunaux, bien que libres car nul ne juge les juges, rendent leurs verdicts en appliquant syllogistiquement le droit aux faits, peut-être le font-ils souvent mais non systématiquement. En effet, pour ce qui est des deux cas sur dix dans lesquels les décisions des juges-humains et celles des juges-robots divergent, il n'est pas impossible que les sentences découlant le plus logiquement de la stricte application du droit positif aux faits soient celles du juge-robot, tandis que celles du juge-humain seraient dictées par des considérations extérieures, souvent implicites. Faut-il, dès lors, suivre Carbonnier lorsqu'il convenait que « le juge est un homme et non une machine à syllogismes : autant qu'avec sa connaissance des règles et sa logique, il juge avec son intuition et sa sensibilité » [14] ? Il semble que la connaissance des règles et la logique soient premières et que l'intuition et la sensibilité ne jouent qu'un rôle complémentaire, influençant l'orientation des décisions de justice seulement dans les cas les plus difficiles, face auxquels le juge électronique peine à s'accorder avec le juge réel.
6Des robots utilisant des logiciels de reconnaissance vocale et sémantique pourraient-ils être les greffiers de demain ? C'est tout le service public de la justice que les nouvelles technologies de traitement de l'information invitent peut-être à repenser, à moderniser, mais non sans s'interroger quant à l'opportunité, aux bénéfices et aux risques de pareille modernisation technologique dont les conséquences seraient telles qu'elles amèneraient sans doute la justice à changer d'ère. Au sein de la présente étude, après avoir souligné, à l'aune des enseignements fournis par l'expérience de justice algorithmique, combien les décisions de justice ne paraissent pas devoir s'analyser tels les fruits de purs syllogismes et encore moins tels les fruits d'un entier libre arbitre des juges (2), sera posée plus concrètement la question d'une justice du futur abandonnée en tout ou partie à des machines « intelligentes » (3). Sera également observé que, depuis peu, se développent des outils de justice prédictive permettant aux avocats et aux justiciables qu'ils défendent de savoir quelles sont les chances qu'ils possèdent d'obtenir gain de cause concernant un litige donné si celui-ci venait à être porté devant les tribunaux (4). Mais, en premier lieu, il convient de présenter plus finement les travaux menés par des chercheurs britanniques et américains et ayant abouti à la création d'un algorithme capable de rendre les mêmes décisions de justice que les magistrats dans huit cas sur dix (1).
1. La création par des chercheurs anglo-saxons d'un algorithme capable de rendre des décisions de justice
7Un algorithme est une suite finie et précise d'opérations dont l'application permet de résoudre des problèmes, d'exécuter des tâches ou d'obtenir des résultats. Il fonctionne à partir d'« entrées » (les données initiales) et aboutit à des « sorties » (les résultats) en suivant différentes étapes qui requièrent des décisions logiques ou des comparaisons. Les algorithmes sont à la base de l'informatique ; ils sont le plus souvent traduits en des programmes exécutables par ordinateur. Souvent assimilés à des « formules magiques », les plus connus sont ceux des moteurs de recherche qui permettent, en fonction des mots-clés saisis par l'utilisateur, d'accéder aux pages web les plus pertinentes. L'algorithme de Google est ainsi l'une des choses qui a le plus de valeur au monde. Mais des algorithmes servent aussi à traduire des textes, à classer des documents, à effectuer des calculs complexes, à crypter et décrypter des informations, etc.
8L'ordinateur exécute mécaniquement les opérations qui constituent l'algorithme. C'est pourquoi, si des chercheurs sont parvenus à élaborer un algorithme permettant à l'ordinateur de rendre des décisions de justice comme le feraient des magistrats humains, il est tentant d'en revenir à l'idée de « juge automate » [15]. Tant l'algorithme que le syllogisme juridique seraient comparables à des recettes de cuisine : en mélangeant différents ingrédients précisément identifiés d'une manière bien comprise, tout cuisinier quel qu'il soit obtiendra le même plat ; tout juge quel qu'il soit aboutira à la même solution.
9En l'occurrence, les chercheurs britanniques et américains se sont concentrés sur le cas de la Cour européenne des droits de l'homme, qui juge les États ayant potentiellement enfreint la Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales. Ce choix présentait un avantage : les décisions de la Cour, outre qu'elles sont en nombre suffisant pour fournir un échantillon représentatif [16], comptent souvent de nombreuses pages dans lesquelles tant les faits que les arguments des parties et que les dispositions juridiques pertinentes sont finement expliqués [17]. Pour chaque cas, l'algorithme avait donc à sa disposition suffisamment de données, suffisamment d'« entrées » pour effectuer sa tâche en toute connaissance de cause [18]. Mais ce choix présentait également une difficulté : les juges de la Cour européenne des droits de l'homme sont connus pour leur tendance à préférer traiter les cas en opportunité, éventuellement en fonction du contexte politique propre à l'État mis en cause [19]. La Cour ne s'arc-bouterait pas sur les textes en vigueur et privilégierait une approche ouverte des cas qui lui sont soumis. Sa méthode est ainsi qualifiée d'« essentiellement casuistique » [20], de « dynamique, téléologique et finaliste » [21]. Les juges pouvant, en outre, exprimer leurs opinions dissidentes, la Cour paraît se rapprocher davantage des hautes cours des pays de common law que de celles des pays de droit de tradition romano-germanique, dans lesquels le syllogisme pur est réputé davantage s'épanouir. De ce point de vue, les performances de l'algorithme sont remarquables. Et elles indiquent que l'activité juridictionnelle de la Cour européenne des droits de l'homme suit peut-être plus de lignes directrices claires et stables qu'on l'imagine parfois.
10En effet, ainsi que le détaillent les chercheurs dans leur article publié le 24 octobre 2016, le juge-robot qu'ils ont créé est parvenu à deviner 79 % des décisions de la Cour européenne des droits de l'homme. Pour parvenir à ce résultat, ils ont dû procéder à un vaste travail de documentation afin de déterminer les principales constances dans les arrêts de la Cour, établir les liens de corrélation montrant l'influence déterminante de certains éléments sur le verdict final et pouvoir ainsi fournir à l'algorithme des modèles censés le rendre le plus fiable possible. Partant, si, dans 21 % des situations, les juges ont tranché différemment de ce que le robot a supposé, c'est peut-être qu'ils n'ont alors pas suivi les modèles. En outre, l'algorithme est également « auto-apprenant » ; il se perfectionne en mettant en œuvre des modèles d'analyse sémantique appelés « N-grammes » [22]. Il repère ainsi les tendances textuelles qui mènent à des issues prévisibles en termes de violation ou de non-violation de la Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales. Il existe donc bien des liens de corrélation étroits entre les éléments fournis pendant le procès et la décision des juges. En particulier, les chercheurs ont remarqué que des faits similaires aboutissent généralement à des décisions identiques, ce qui est heureux sous l'angle de la sécurité juridique, de la prévisibilité du droit ainsi que de la confiance en la justice et explique que le juge-robot soit parvenu à anticiper huit fois sur dix les verdicts rendus par la Cour européenne des droits de l'homme.
11Ce sont au total 584 décisions qui ont été analysées, contenant à parts égales des cas ayant abouti à une condamnation et des cas ayant abouti à une non-condamnation, cela afin d'éviter tout biais dans l'instruction de l'apprenti juge-robot. Concrètement, les chercheurs ont fourni à l'algorithme les motifs de chacun des arrêts de la Cour européenne des droits de l'homme (faits, procédure antérieure, arguments présentés par les parties et règles de droit pertinentes, c'est-à-dire éventuellement applicables). Ensuite, l'algorithme devait deviner le dispositif, donc deviner si la Cour a condamné ou non l'État mis en cause. Cette méthode a posteriori pose la question de la possibilité de créer des juges-robots intervenant a priori, car qui alors leur présenterait les faits et, surtout, rechercherait les normes juridiques potentiellement mobilisables ? Il faudrait que le juge-robot soit capable d'effectuer ces tâches, mais celui élaboré par les chercheurs britanniques et américains est beaucoup plus limité dans ses capacités. De plus, il se contente de choisir entre une alternative binaire simple : condamner ou ne pas condamner, reconnaître une violation ou ne pas reconnaître de violation d'un article de la Convention européenne de sauvegarde des droits de l'homme. Il ne lui appartient notamment pas de s'enquérir des peines assorties aux condamnations.
12Il n'en demeure pas moins que l'algorithme a rendu dans huit cas sur dix la même décision que les magistrats européens et que cela interroge, spécialement sous l'angle du réalisme, courant de pensée juridique qui voit le droit principalement, si ce n'est uniquement, dans les activités des tribunaux et qui est de plus en plus populaire, venant concurrencer le normativisme kelsénien dans lequel les juges sont de purs organes exécutifs se bornant à appliquer très systématiquement la loi qui leur est donnée aux cas qui leur sont soumis, les jugements contenant seulement des normes individuelles situées tout en bas de la pyramide des normes.
2. Juge-humain et juge-robot : concordances et divergences
13Qu'un juge-robot soit en mesure de trouver huit fois sur dix quelles décisions les juges de la Cour européenne des droits de l'homme ont prises montre que la justice est évidemment loin d'être rendue au hasard, mais aussi qu'elle n'est guère à la merci complète de considérations extra-juridiques cachées ou sous-entendu es (a). En même temps, que deux fois sur dix les décisions du juge-robot et du juge-humain divergent est également significatif ; d'autant plus que, dans les situations où l'algorithme n'a pas saisi les motivations amenant les juges à trancher dans un sens plutôt que dans un autre, l'alternative s'offrant à lui étant binaire, sa position aura néanmoins été la même que celle de la Cour européenne des droits de l'homme dans 50 % des cas. Ainsi, si le juge-humain se prononce sous l'influence d'un facteur x et le juge algorithmique sous l'influence d'un facteur y, l'un et l'autre tomberont néanmoins d'accord au moins une fois sur deux. Cela signifie qu'il faut multiplier par deux les 21 % d'erreurs pour obtenir le taux de prédictions véritablement bien-fondées du juge-robot. Celui-ci n'est alors que de 58 %. C'est pourquoi la voie la plus conforme à la réalité concrète de l'activité de la Cour européenne des droits de l'homme paraît être celle proposée par le réalisme scandinave et par la théorie des contraintes juridiques : il est possible et en même temps difficile de prévoir les décisions des tribunaux car, si la première des contraintes qui oriente le juge-robot autant que le juge-humain réside dans le droit positif, d'autres, plus subjectives et auxquelles l'algorithme ne saurait en revanche être soumis, peuvent également entrer en jeu (b).
a. 79 % d'accords entre le juge-humain et le juge-robot
14Si la décision de justice était seulement le résultat d'un parfait syllogisme, si elle jaillissait naturellement du mélange des faits et du droit, il ne serait guère difficile d'élaborer un algorithme capable de rendre la justice, seuls les cas les plus complexes, notamment lorsque la qualification des faits est rendue pénible par leur situation à mi-chemin entre deux régimes juridiques, pouvant poser problème. Or longtemps, en France du moins, les théories de l'interprétation ont sacralisé la loi : la doctrine légaliste de la seconde moitié du XIXe s., dite « de l'Exégèse », considérait que chaque disposition légale ne possèderait qu'un seul et unique sens et que le rôle du juge serait simplement de l'identifier. L'interprétation des faits et de la loi serait purement déclarative et en aucun cas constitutive, serait le fruit d'un acte de connaissance et non d'un acte de volonté. Cette conception est logique dès lors que les fonctions de création et d'application du droit sont clairement identifiées et séparées dans l'État : le législateur crée, le juge applique.
15Seulement, les faits ont largement contredit la vision d'un juge « esclave de la loi », simple exécutant sans marge de manœuvre se bornant à appliquer la méthode du syllogisme tel un automate. Au début du XXe s., l'École de la libre interprétation, emmenée par François Gény et considérant que les juges pourraient très bien « juger la loi » et faire prévaloir d'autres considérations par rapport au droit positif, a pris le pas sur celle de l'Exégèse. Avec cette libre recherche scientifique, le bon juge ne serait plus celui qui applique scrupuleusement la loi, volonté du peuple, mais celui qui l'adapte à l'état actuel de la société et aux spécificités de chaque litige, en recourant à des « méthodes scientifiques » permettant de prendre en compte les données sociales, morales, historiques ou encore économiques et de pondérer les intérêts en présence [23].
16L'expérience de justice algorithmique ne vient pas contredire la vision d'un juge libre, mais elle montre que, s'il est libre, le juge n'en profite pas pour rendre le droit à sa guise et préfère généralement s'appuyer sur les plus solides arguments issus du droit positif [24]. En effet, l'algorithme, pour sa part, ne disposait que d'éléments objectifs, à savoir les faits, la procédure antécédente, les arguments des parties et les dispositions de droit positif pertinentes. Or, à l'aune de ces informations, il est parvenu à deviner dans la majorité des situations quelle a été la décision des magistrats de la Cour européenne des droits de l'homme.
17Plus encore, les résultats de l'expérience de justice robotisée amènent à relativiser les propositions des théoriciens du droit rattachés au réalisme américain. Et, puisque ces auteurs défendent des thèses plus ou moins radicales, loin de suivre une doctrine précisément établie, ces résultats, pour le dire caricaturalement, vont surtout à l'encontre des plus radicales, tandis qu'ils confirment en partie les plus modérées, qui se rapprochent du réalisme scandinave.
18Pour ce qui est des thèses semble-t-il les plus excessives, d'aucuns, à la suite du philosophe pragmatiste John Dewey, considèrent que, dans l'ordre empirique des choses, les juges, dans un premier temps, trancheraient en opportunité les cas à eux soumis, en fonction de leurs conséquences pour les parties mais aussi de leurs conséquences pour l'ordre social, de leurs conséquences économiques, de leurs conséquences symboliques, etc., puis, dans un second temps, chercheraient dans le droit positif disponible quelques moyens de justifier juridiquement mais plus ou moins artificiellement les décisions prises [25]. Ainsi Oliver Wendell Holmes se félicitait-il du « mérite du common law [qui] est de décider du cas d'abord et de déterminer les principes après coup » [26]. S'il y a syllogisme, celui-ci ne serait pas déductif comme le suppose la logique formelle normativiste mais « inductif et pragmatique » [27] en ce qu'il consisterait à d'abord choisir le sens de la décision de justice pour ensuite l'habiller de quelques « supports d'imputation » [28], cela en piochant dans certaines lois et certains règlements, en particulier dans leurs nombreuses notions à contenu variable, et en interprétant ces dispositions en faveur de la décision retenue [29]. Ce ne serait donc pas la décision qui dériverait de la règle de droit mais la règle de droit qui dériverait de la décision. Telle est l'une des principales idées du réalisme américain, la validité et la hiérarchie des normes étant appréhendées telles des propositions métaphysiques à écarter purement et simplement du raisonnement.
19 L'expérience des chercheurs britanniques et américains ne permet pas de se prononcer quant à la pertinence de pareille conception du travail des magistrats puisque l'algorithme a travaillé à partir des données issues des arrêts et donc à partir des arguments et explications retenus par les juges eux-mêmes. Néanmoins, le grand nombre d'arrêts rendus à l'unanimité, i.e. sans opinion dissidente, et la précision des motifs fournis par la Cour européenne des droits de l'homme, les règles de droit mobilisées étant loin de se borner à jouer un « rôle décoratif pour répondre à l'exigence de motivation des décisions de justice et garantir un minimum d'acceptabilité de la décision de justice par ses destinataires » [30], supposent que cette juridiction s'appuie sur le syllogisme normativiste, logique et déductif, et non sur le syllogisme réaliste, régressif et inversé.
20 En tout cas, cette expérience conduit à contredire dans une certaine mesure - non complètement tant les 21 % (ou 42 %) de cas dans lesquels les approches du juge-robot et du juge-humain diffèrent posent question - le réalisme américain sous l'angle des sources du droit. En effet, ses tenants considèrent que les décisions juridictionnelles seraient davantage dictées par des éléments subjectifs propres à chaque juge que par les faits, le droit positif et leur réunion à l'aide du syllogisme. Pour eux, il faudrait « rechercher l'origine des décisions dans les conversations du juge avec les autres membres de la juridiction, dans sa lecture des journaux et dans le souvenir de l'enseignement qui lui a été prodigué à l'université » [31]. Sceptiques à l'égard de la logique juridique déductive comme clé de la compréhension de l'activité des tribunaux, les réalistes se sont employés à saisir les ressorts « réels » de cette activité. Ils ont mis en avant les motivations ni juridiques ni casuelles des décisions de justice telles que les croyances des juges, leurs préjugés, leurs habitudes ou leurs préférences en termes de justice sociale [32], autant de données que l'algorithme ne pouvait deviner et donc prendre en compte.
21 Oliver Wendell Holmes écrivait, en 1881, afin de motiver son rejet du syllogisme, que « la vie du droit n'est pas logique ; elle est expérience » [33]. Le juge-robot étant sensible à la logique mais non à l'expérience, il faut croire que la vie du droit, en tout cas pour ce qui est de son pan juridictionnel, est davantage faite de logique que d'expérience. Quant à Karl Llewellyn, l'un des plus illustres réalistes américains, il estimait pour sa part que le droit serait surtout « une idéologie et un ensemble d'idées envahissantes et puissantes qui sont largement non verbalisées, largement implicites, et qui passent inaperçues » [34]. À nouveau, si les jugements et arrêts découlaient véritablement de telles données non verbalisées, implicites et inaperçues, il aurait été vain d'entreprendre l'élaboration d'un algorithme capable de deviner le sens de leurs dispositifs.
22 Certains sont allés jusqu'à soutenir que les juges n'obéiraient qu'à leur instinct ou leur intuition, ou encore que, jusqu'aux contenus de leurs repas, leur plus ou moins grand épanouissement dans leurs vies personnelles ou même l'heure de la journée ou la saison influenceraient leurs activités juridictionnelles [35]. Ces thèses tendent a fortiori à être démenties par l'expérience de justice algorithmique et il faut supposer que les erreurs dans les prédictions du juge-robot sont moins imputables à l'entrée en jeu de telles considérations extrêmement subjectives et parfois même insensibles qu'à des éléments tels que les opinions politiques ou la volonté de faire prévaloir certains intérêts plutôt que d'autres, même si tous sont inavouables et donc inaccessibles au juge algorithmique. Carbonnier pouvait relever combien « il y a toujours eu des jugements intuitifs » [36] ; mais, pour les réalistes américains, il n'y aurait que cela [37]. Les 79 % de concordances entre les arrêts réels et les arrêts supposés par l'algorithme incitent à penser qu'il peut exister des jugements intuitifs mais que, le plus souvent, les jugements sont la conséquence de véritables syllogismes et que, de fait, les juges ne jouissent pas d'une totale liberté d'interprétation et d'action. Et les 21 % de divergences entre les arrêts réels et les arrêts supposés par l'algorithme invitent à imaginer que d'autres éléments que les seuls faits et dispositions légales pertinentes jouent parfois un rôle décisif dans les choix des magistrats - d'autant plus si l'on considère que ce sont 42 % des prédictions qui ne sont pas fiables, ajoutant 21 % de prédictions concordantes par hasard aux 21 % de prédictions erronées.
b. 21 % de désaccords entre le juge-humain et le juge-robot
23Les auteurs de l'expérience de justice algorithmique semblent ne pas avoir tout à fait tiré les leçons, sous l'angle de la pensée juridique, des résultats auxquels ils ont abouti. En effet, ils observent que l'algorithme est parvenu plus aisément à deviner le sort des procès à l'aune de leurs données factuelles qu'à l'aune de leurs données juridiques. Ils en déduisent que cela conforterait les conceptions des réalistes américains en prouvant que les décisions de justice seraient davantage prises en fonction de considérations factuelles qu'en fonction de considérations juridiques [38]. Outre le fait que cela réduit excessivement le propos de la théorie réaliste, qui est loin de considérer que les faits déterminants seraient uniquement les faits d'espèce, l'erreur d'analyse paraît résider dans le fait qu'il est logiquement impossible de savoir si la Cour européenne des droits de l'homme condamnera ou ne condamnera pas un État à l'aune du seul droit potentiellement applicable ; car tout dépend des faits en cause et de l'applicabilité ou non-applicabilité de ce droit à ces faits. Si l'algorithme sait seulement que le droit condamne les voleurs, comment pourrait-il deviner si M. X a été ou non condamné ? Il faut qu'il sache si M. X a volé ou non. En revanche, si l'algorithme a connaissance des faits et non du droit, il pourra deviner avec plus de chances de succès la décision des juges. Si M. X a volé et que, par le passé, M. Y, qui a volé, a été condamné et M. Z, qui a volé, a été condamné, il en conclura logiquement que M. X a lui aussi été condamné sans pour autant que l'information selon laquelle le droit punit le vol lui ait été fournie. Mais de la loi éventuellement applicable on ne peut rien déduire, tout dépendant de son application effective ou non aux faits, donc des faits. Savoir que la loi L est la loi pertinente dans le cas A et qu'elle a déjà été la loi pertinente dans les cas B, C et D n'est guère utile afin de savoir si cette loi L a effectivement été appliquée dans le cas A. Que l'algorithme parvienne plus souvent à déterminer l'issue des procès à l'aune des faits des espèces qu'à l'aune du droit pertinent serait donc sans lien avec le fait que les juges soient davantage influencés par des considérations factuelles que par des considérations juridiques.
24Au-delà de ce possible biais dans l'analyse, la capacité du juge-robot à prévoir dans huit cas sur dix la solution des procès tenus devant la Cour européenne des droits de l'homme et en même temps son incapacité à la prévoir dans deux cas sur dix semblent montrer que l'expérience menée n'aboutit pas à faire totalement triompher le formalisme ou normativisme du réalisme. Peut-être les 21 % d'erreurs sont-ils plus intéressants que les 79 % de réussites. Si la prise de décision juridictionnelle obéissait à une stricte logique formelle, les chercheurs auraient pu parvenir à construire un juge algorithmique s'accordant plus systématiquement avec le juge humain. Aussi, entre les excès du réalisme américain et les insuffisances du normativisme kelsénien, est-ce peut-être la voie du réalisme scandinave qui permet le mieux de rendre compte de la réalité du droit. Avec la version américaine du réalisme, la liberté des juges à l'égard des codes est un devoir ou, du moins, une réalité indiscutable allant de pair avec une ignorance de ces codes - a priori puisqu'ils peuvent ensuite être mobilisés afin de justifier des décisions déjà prises. Avec la version scandinave du réalisme, cette liberté est reconnue en même temps qu'est reconnue l'existence de contraintes juridiques étant, de facto, les données qui influencent le plus grandement les décisions juridictionnelles [39]. La théorie réaliste scandinave « admet que l'interprétation est juridiquement libre, [...] [et] comprend qu'elle est soumise à un déterminisme » [40]. Alf Ross, l'un des principaux promoteurs de ce réalisme « doux », notait que « le droit présuppose non seulement que le juge ait un comportement régulier, mais aussi qu'il ait le sentiment d'être lié par les règles » [41] - on peut être libre, c'est-à-dire n'encourir aucun jugement ni aucune sanction, et néanmoins être animé par quelques convictions telles que celle selon laquelle appliquer la loi serait la première des missions d'un juge. Et Alf Ross ne niait en aucun instant la prégnance de l'« idéologie de la hiérarchie des normes » [42], tout en y voyant donc une idéologie.
25Si le juge est souverain ou quasi-souverain, son action n'en est pas moins influencée par différents éléments ; et ces éléments, loin d'être subjectifs et cachés, parfois même inconscients, comme le postulent les réalistes américains, sont davantage objectifs et assumés, a fortiori dès lors qu'il s'agit simplement du droit positif applicable. L'algorithme pouvait par conséquent reconnaître ces contraintes juridiques et, en les confrontant aux faits de chaque espèce, deviner dans quel sens avait tranché la Cour. Mais les contraintes qui orientent les comportements des juges malgré leur liberté théorique ne se limitent pas aux contraintes juridiques, bien que celles-ci soient les plus importantes, et d'autres, plus insidieuses, peuvent dans certains cas jouer un rôle déterminant, expliquant la part d'erreurs dans les prédictions du juge algorithmique. De plus, en raison de la « texture ouverte du droit » [43], nul doute que le juge-robot et le juge-humain sont parvenus bien plus aisément à s'accorder concernant « les cas centraux et clairs auxquels la règle s'applique avec certitude » [44] que concernant « les cas pour lesquels il existe des raisons aussi bien d'affirmer que de nier qu'elle s'y applique » [45]. Et, si les juges-humains sont tantôt sujets des règles de droit (ce qui correspond à la position normativiste) et tantôt acteurs des règles de droit (ce qui correspond à la position réaliste), un juge-robot ne saurait toujours qu'être sujet des règles de droit - on peut imaginer un ordinateur appliquer grâce au syllogisme des normes à des faits, mais il est plus difficile de l'imaginer décider de quelques orientations jurisprudentielles ou opérer quelques interprétations audacieuses des termes de la loi.
26Les origines des divergences entre les décisions du juge-robot et celles du juge-humain, touchant donc deux cas sur dix, sont sans doute multiples ; et il est difficile de ne pas y inclure la subjectivité et la personnalité de chaque magistrat. C'est bien sous les traits d'un « casse-tête » que se présente le comportement judiciaire [46], loin de se réduire au modèle normativiste ou au modèle réaliste [47]. Dans leur article, les chercheurs indiquent que « l'algorithme a eu tendance à fournir des jugements erronés quand il s'est trouvé en présence de deux cas similaires ayant entraîné une condamnation et une non-condamnation » [48]. Lorsque des faits identiques ou du moins proches sont traités différemment en fonction des juges à qui ils sont soumis, l'algorithme ne peut que s'y perdre et le réalisme, y compris dans sa version la plus radicale, ne peut que se trouver conforté. Néanmoins, dans la majorité des cas, les situations proches ont été traitées identiquement ; ce sont alors le syllogisme et le normativisme qui en sortent renforcés. Qui observe la pratique des juges, au-delà de l'expérience de justice algorithmique, constate combien ils expriment généralement le sentiment d'être liés par les lois et combien la jurisprudence revêt une cohérence suffisante pour que les décisions soient loin d'être imprévisibles. Dire qu'il existe une liberté du juge, ce n'est pas - et c'est heureux - dire qu'il existe une obligation pour le juge de statuer contra legem ou para legem. La théorie des contraintes juridiques explique pourquoi cette liberté n'entraine pas une parfaite cacophonie juridictionnelle.
27 Il n'en demeure pas moins que, si les 584 dossiers devaient aujourd'hui repasser entre les mains d'autres juges, le taux de correspondances avec les premières décisions serait peut-être plus proche de 79 % que de 100 %. La marge d'erreur du juge-robot, soit 21 %, ne signifie pas nécessairement qu'il se trompe mais plutôt qu'il dit différemment le droit que le juge-humain. Ensuite, faut-il davantage faire confiance au premier ou bien au second ? Il est sans doute difficile de préférer une justice des machines à une justice humaine. Cependant, les dernières évolutions des technologies de traitement de l'information, dont témoigne l'expérience ici commentée, amènent au moins à poser la question, si ce n'est d'une justice entièrement rendue par ordinateur, d'une justice assistée par ordinateur. La justice prédictive donne ainsi l'occasion de songer aux évolutions technologiques du service public de la justice, lesquelles, si elles deviennent possibles, ne sont pas forcément souhaitables.
3. Vers une justice automatisée ou assistée par ordinateur ?
28Au début du XXe s., le théoricien du droit américain Roscoe Pound dénonçait le caractère automatique de l'activité judiciaire dès lors qu'elle s'appuie sur le syllogisme formaliste [49]. À présent, rares sont ceux qui contestent que les magistrats, au moment de juger, ouvrent la porte à l'éthique et autres formes de droit non officiel qui permettent d'adapter les décisions aux particularités de chaque cas. De ce point de vue, la qualité de la justice diminuerait peut-être inexorablement si les juges-humains laissaient la place à des juges-robots. En revanche, l'automatisation de la justice permettrait d'accélérer son cours et de diminuer ses coûts. Alors que certains tribunaux sont complètement saturés par un trop grand nombre de dossiers à traiter, recourir au juge-robot pourrait être, sous cet angle, salutaire. Dans tous les cas, il semble que les technologies de traitement de l'information ne soient pas encore arrivées à un tel niveau de perfectionnement que la question du remplacement des magistrats par des automates puisse raisonnablement être posée. En revanche, il serait peut-être temps de songer plus sérieusement à une justice davantage assistée par ordinateur, l'ordinateur ne servant plus seulement à enregistrer et stocker les informations, ainsi qu'à rédiger les documents grâce aux logiciels de traitement de texte, mais devenant une véritable aide à la prise de décision. Il fait peu de doute que l'enjeu n'est pas de choisir entre juges-robots et juges-humains mais de mettre les premiers au service des seconds.
29Le juge algorithmique - à condition qu'on parvienne technologiquement à créer des algorithmes parfaitement fiables - permettrait, pour chaque cas, d'obtenir la décision la plus exactement conforme au droit positif. Il serait ainsi un gage de sécurité juridique et permettrait d'uniformiser les décisions de justice. Plus encore, en jouant sur les réglages de l'algorithme, on pourrait appliquer une politique judiciaire uniforme sur l'ensemble du territoire. Ensuite, la justice automatisée pourrait ne pas concerner toutes les affaires mais seulement les plus simples où celles dont les demandes n'excèdent pas un certain montant. L'objectif serait de libérer les magistrats de la justice du quotidien et de leur permettre de se concentrer sur les cas les plus complexes ou pour lesquels les enjeux sont les plus élevés. Il s'agirait donc de désengorger les tribunaux et de permettre à la justice de gagner en célérité. Pour ce qui est de la Cour européenne des droits de l'homme, l'algorithme des chercheurs britanniques et américains pourrait l'aider à faire face à l'accumulation des dossiers à examiner et aux retards que cela entraîne - si bien qu'il lui faut parfois de longues années pour traiter des demandes visant justement à sanctionner certains États du fait de la lenteur de leurs justices nationales. L'algorithme, loin de décider à la place des magistrats, pourrait grandement faciliter leur travail en isolant les éléments pertinents pour le traitement du dossier à l'aune des arrêts antérieurs, donnant ainsi des indices précieux quant à l'issue de la procédure.
30Concernant la justice correctionnelle et la justice criminelle, il est difficile d'imaginer, symboliquement, comment des verdicts et des peines fixés par ordinateur pourraient être acceptés. Le jury d'assises n'est-il pas là non pour rendre une justice plus juste par rapport à celle des magistrats professionnels mais pour instiller dans l'esprit des accusés qu'ils sont jugés par le peuple, qu'ils sont jugés démocratiquement ? Mais il semble que même au niveau de la justice civile il serait plus difficile de se soumettre à un jugement émanant d'un juge-robot qu'à un jugement émanant d'un juge-humain. Un juge sans éthique, sans déontologie, sans responsabilité, sans humanité mérite-t-il encore d'être appelé « juge » ? La justice automatisée, peinant à prendre en considération les spécificités propres à chaque cas et à individualiser les décisions, pourrait difficilement ne pas déboucher sur des excès, sur une forme de totalitarisme potentiellement contraire à certains principes de l'État de droit. Dès lors, c'est bien la question d'une justice assistée par ordinateur qui mérite surtout d'être posée.
31Concernant cette justice misant sur les nouvelles technologies de traitement de l'information, elle est promue au Royaume-Uni où un rapport de 2015 a invité les pouvoirs publics à ouvrir le chantier d'une justice profitant des possibilités offertes par l'intelligence artificielle. L'administration judiciaire britannique a annoncé la création en 2017 d'un tribunal civil en ligne pour les différends donnant lieu à des prétentions inférieures à 25 000 livres. La première phase de la procédure consistera en des négociations automatisées ou assistées par ordinateur afin d'aboutir à une solution amiable. En cas de conflit persistant, le jugement sera rendu par Internet. Il s'agit moins d'un engouement technophile de la part du gouvernement britannique que d'une opportunité financière saisie : les frais de fonctionnement de la justice dématérialisée et en partie automatisée sont bien inférieurs à ceux de la justice physique et humaine.
32 Par ailleurs, plus significatif encore de l'ouverture aux juges algorithmiques est le fait que, dans beaucoup d'États américains, des procureurs recourent à la justice prédictive afin de mesurer leurs chances de faire condamner certains suspects en fonction des preuves recueillies ; et ils n'hésitent pas à abandonner les charges si l'issue des poursuites se révèle trop aléatoire. De plus, la détention provisoire et la libération conditionnelle sont désormais déterminées à l'aide d'un algorithme dénommé Compas [50], lequel prend en compte une centaine de critères divers et variés. Cette aide informatique à la prise de décision - le détenu obtient un « score » sur une échelle allant de 1 à 10, 1 correspondant à un risque de récidive très faible et 10 correspondant à un risque de récidive très élevé - a pour but de tout à la fois limiter les menaces de récidive et désengorger les prisons [51]. D'autres algorithmes prédictifs sont de plus en plus fréquemment utilisés par les magistrats américains au moment de définir les peines de prison ou les éventuelles remises de peine. Et les résultats obtenus grâce à ces algorithmes sont désormais régulièrement cités afin de motiver les décisions.
33 Les algorithmes rassurent par leur logique mathématique implacable. Mais la justice peut-elle raisonnablement répondre à une logique mathématique implacable ? Le bon sens semble plaider pour des algorithmes prédictifs profitant à des cours et tribunaux n'en conservant pas moins leur libre arbitre. Par ailleurs, ces pages sont l'occasion de mettre en lumière un dernier phénomène : des services de justice prédictive à l'attention des avocats se développent depuis peu.
4. L'essor de la justice prédictive : des aides technologiques à disposition des avocats
34Les auteurs de l'expérience de prédiction automatique des décisions de la Cour européenne des droits de l'homme espèrent que l'outil qu'ils ont créé pourra connaître des applications pratiques, au-delà de son intérêt du point de vue scientifique : « Nous croyons que la construction d'un système prédictif basé sur les textes des décisions judiciaires peut offrir aux avocats et aux juges un outil utile » [52]. Au moins autant que les magistrats, ce sont peut-être les avocats qui pourraient tirer profit de la justice prédictive. Celle-ci pourrait simplifier grandement leurs tâches, leur permettre de gagner un temps précieux en n'ayant plus à effectuer certaines recherches et donc de se concentrer, par exemple, sur la préparation des plaidoiries. Consulter la jurisprudence et effectuer des rapprochements avec les cas similaires déjà jugés a toujours constitué une partie importante du travail des avocats - comme des juges, qui vérifient s'ils ne risquent pas de contredire des décisions passées et ainsi de donner l'image d'une justice balbutiante. Les algorithmes peuvent permettre d'accéder à certaines informations pertinentes en quelques secondes quand, s'il fallait se plonger dans les recueils, cela prendrait plusieurs heures. Il serait peut-être difficilement justifiable de ne pas s'ouvrir à ces nouvelles technologies au nom de quelque conservatisme, par exemple au nom de la « culture du papier ».
35Aux États-Unis, l'algorithme Ross, développé par IBM, est utilisé par certains cabinets d'avocats. Ross permet de fouiller les archives et d'en exhumer les documents importants. Quant à la société Lex Machina, elle a développé un algorithme performant dans le secteur des brevets industriels. En France, ce genre d'outils émerge seulement. Deux « legal start-up », Case Law Analytics [53] et Predictice [54], ont développé des algorithmes permettant d'anticiper l'issue d'une action en justice. Engager une procédure juridictionnelle n'est que parfois bénéfique mais est toujours long et coûteux. Ainsi ces instruments peuvent-ils aider à déterminer s'il serait judicieux ou vain de porter son litige devant les tribunaux, s'il serait préférable ou non de chercher un accord amiable. Là encore, le développement du recours à ces technologies, en entraînant une diminution du nombre d'actions en justice inopportunes, permettrait de diminuer l'encombrement des tribunaux.
36L'essor de la justice prédictive ne serait pas sans conséquences sur le métier d'avocat. Par exemple, en sachant que les chances pour son client d'obtenir gain de cause ne sont que de 5 %, l'avocat devrait tout mettre en œuvre pour éviter le jugement et recourir à un mode alternatif de résolution des conflits. La médiation et la transaction pourraient se développer à mesure que les prétoires se désengorgeraient, de plus en plus de cas ne passant plus devant la justice étatique. L'avocat devrait alors apprendre à jouer un rôle quelque peu différent. Et, si les justiciables prenaient l'habitude d'utiliser directement de tels outils, les avocats pourraient craindre d'être de moins en moins sollicités. C'est pourquoi ils n'envisagent pas nécessairement favorablement ces progrès technologiques. D'aucuns pointeront du doigt la menace d'une « ubérisation » des métiers de la défense, de laquelle les hauts niveaux de qualification des avocats et de réglementation de la profession devraient néanmoins préserver. Plutôt que de mettre en danger les cabinets d'avocats, peut-être les services de justice prédictive qui émergent peuvent-ils consolider leur caractère incontournable en les outillant mieux et en accentuant leur valeur ajoutée.
37Les robots s'immiscent chaque jour un peu plus dans les activités humaines et sociales, à tel point que, lors de la dernière élection présidentielle américaine, l'un des candidats déclarés n'était autre que Watson, le superordinateur de la firme IBM [55]. En matière judiciaire, les derniers progrès des technologies de traitement de l'information incitent à prendre au sérieux le sujet de la justice et de la défense assistées par ordinateur, si ce n'est celui de l'automatisation ou robotisation de la justice et de la défense.
Notes
-
[1]
O. W. Holmes, La voie du droit (1897), trad. L. De Sutter, Dalloz, coll. Tiré à part, 2014, p. 9.
-
[2]
R. C. Lawlor, What Computers Can Do : Analysis and Prediction of Judicial Decisions, American Bar Association Journal 1963, p. 337 s.
-
[3]
R. Keown, « Mathematical Models for Legal Prédiction », Computer/LJ 1980, p. 829 s.
-
[4]
J. A. Segal, « Predicting Supreme Court Cases Probabilistically : the Search and Seizure Cases (1962-1981) », American Political Science Review 1984, p. 891 s.
-
[5]
S. S. Nagel, « Applying correlation analysis to case prediction », Texas Law Review 1963, p. 1006 s.
-
[6]
F. Kort, « Predicting Suprême Court Decisions Mathematically : a Quantitative Analysis of the "Rightto Counsel" Cases », American Political Soence Review 1957, n° 51, p. 1 s.
-
[7]
A. Aft, J. Blackman, C. M. Carpenter, « FantasySCOTUS : Crowdsourcing a Prediction Market for the Supreme Court », Northwestern Journal of Technology & Intellectual Property 2012, n° 10, p. 125 s. ; J. Blackman, M. J. Bommarito, D. M. Katz, « Predicting the Behavior of the Supreme Court of the United States : A General Approach », SSRN Electronic Journal 21 juill. 2014 (disponible à l'adresse <ssm.com/abstract=2463244>).
-
[8]
Ces chercheurs proviennent de l'université de Londres, de l'université de Sheffield et de l'université de Pennsylvanie.
-
[9]
N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, « Predicting Judicial Decisions of the European Court of Human Rights : a Natural Language Processing Perspective », Peer Journal of Computer Soence 24 oct 2016 (disponible à l'adresse <peerj.eom/articles/cs-93/#aff-1>).
-
[10]
N. Bobbio, Essais de théorie du droit, trad. Ch. Agostini, M. Guéret, LGDJ-Bruylant coll. La pensée juridique, 1998, p. 38.
-
[11]
E. Pattaro, « Définir le droit ». Droits 1990, n° 11, p. 47.
-
[12]
On distingue le réalisme américain et le réalisme Scandinave en raison des origines géographiques de ces courants de pensée, mais il existe bien des auteurs qui adhèrent à l'un ou à l'autre en n'étant ni américains ni Scandinaves, y compris en France. Et des théoriciens du droit des États-Unis s'inscrivent davantage dans le courant dit « Scandinave » que dans le courant dit « américain » du réalisme.
-
[13]
Et le plus radical parmi les radicaux fut peut-être Jerome Frank, de l'École de droit de l'université de Chicago. Ce professeur dénonçait l'illusion du « jeu intellectuel » consistant à prétendre identifier des règles dans la loi alors que la pratique réelle des cours et tribunaux dépendrait de tout autres données ; à tel point qu'une décision de justice serait davantage influencée par le « petit déjeuner du juge » que par le contenu de la loi (J. Frank, Courts on Trial - Myth and Reality in American Justice, Princeton University Press, 1950). Appliquant les thèses freudiennes au droit, il proposa l'équation « D = P x S », D étant la décision de justice, P la personnalité du juge et S les stimuli qui le frappent. Le droit, en pratique, serait donc I e résultat de la personnalité du magistrat qui le prononce elle-même conséquence de « ses parents, ses études, ses professeurs, ses condisciples, sa femme, ses enfants [et] les livres lus » (ibid.) et des événements contingents qui influencent son humeur le jour où il le prononce par exemple, la qualité de son repas, le fait d'être le matin ou l'après-midi, le fait d'être avant ou après les vacances (ibid.). Si telles étaient de facto les sources du droit, il aurait été difficile de créer un algorithme capable de prédire la majorité des décisions de justice. D'ailleurs, Jerome Frank imaginait impossible toute anticipation des décisions de justice (ibid.). Mais la bonne équation n'est peut-être pas « D = P x S » mais plutôt « D=L x P x S », L désignant la loi et jouant le rôle essentiel.
-
[14]
J. Carbonnier, Droit civil vol. I : Introduction, Puf, coll. Quadrige, 2004, p. 23.
-
[15]
Et l'ordinateur animé par des algorithmes peut être qualifié de « robot », être doué d'intelligence dite « artificielle » capable de réaliser des actes habituellement propres aux humains, éventuellement plus rapidement et/ou plus précisément qu'eux.
-
[16]
Les chercheurs se sont concentrés sur trois articles de la Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales : l'interdiction de la torture et de tout traitement dégradant (art 3), le droit à un procès équitable (art. 6) et le droit au respect de la vie privée (art. 8) le contentieux lié à ce dernier article étant en pleine recrudescence depuis quelques années du fait des nombreuses révélations sur les opérations d'espionnage et de surveillance.
-
[17]
Selon l'article 74 du Règlement de la Cour, ses arrêts doivent comporter, notamment, « l'exposé de la procédure ; les faits de la cause ; un résumé des conclusions des parties ; les motifs de droit ».
-
[18]
Cela pose la question de la possibilité de reproduire l'expérience à l'échelle de juridictions rendant des décisions plus laconiques.
-
[19]
F. Matscher, « Idéalisme et réalisme dans la jurisprudence de la Cour européenne des droits de l'homme », in Mélanges R. Ryssdal, Carl Heymanns Verlag, 2000, p. 881 s.
-
[20]
F. Matscher, « Les contraintes de l'interprétation juridictionnelle », in F. Sudre, dir., L'interprétation de la Convention européenne des droits de l'homme, Nemesis-Bruylant, 1998, p. 15.
-
[21]
F. Ost, « Originalité des méthodes d'interprétation de la Cour européenne des droits de l'homme », in M. Delmas-Marty, dir.. Raisonner la raison d'État, Puf, 1989, p. 405 ; F. Sudre, « À propos du dynamisme interprétatif de la Cour européenne des droits de l'homme », JCP G 2001, I, p. 335.
-
[22]
Les N-grammes servent à déterminer, en présence d'un certain nombre de mots ou de lettres, quel est le mot ou la lettre qui a la plus grande probabilité d'y être associé.
-
[23]
Gény écrivait en ce sens que la méthode du juge devrait consister « à reconnaître les intérêts en présence, à évaluer leurs forces respectives, à les peser, en quelque sorte, avec la balance de la justice, en vue d'assurer la prépondérance des plus importants, d'après un critérium social, et finalement d'établir entre eux l'équilibre éminemment désirable » (F. Gény, Méthodes d'interprétation et sources en droit privé positif, t I, 2e éd., LGDJ, 1919, p. 167).
-
[24]
Bien sûr, le propos ici tenu concerne essentiellement les juges appartenant aux cours de dernier ressort - ce qu'est la Cour européenne des droits de l'homme -, les juges appartenant aux tribunaux ou aux cours d'appel étant pour leur part forcément influencés par le risque de voir leurs jugements ou arrêts contredits en cas d'appel ou de pourvoi.
-
[25]
J. Dewey, « Logical Method and Law », Philosophical Review 1924, p. 560 s.
-
[26]
O. W. Holmes, op. cit., p. 81.
-
[27]
F. Ost, Dire le droit, faire justice, Bruylant, coll. Penser le droit, 2007, p. 104.
-
[28]
G. Timsit « Raisonnement juridique », in D. Alland, S. Rials, dir., Dictionnaire de la culture juridique, Lamy-Puf, coll. Quadrige-dicos poche, 2003, p. 1295.
-
[29]
Cette conception a connu un certain succès et, en France, jusqu'au Commissaire du gouvernement Chenota pu soutenir que « l'essentiel est le dispositif, les motifs sont construits après » (B. Chenot, « L'existentialisme et le droit ». Revue française des sciences politiques 1953, p. 57 (cité par G. Thuillier, « Probabilisme et art de juger », in D. Alland, S. Rials, op. cit., p. 1216)). Quant à Carbonnier, il enseignait que « tous nos juges jugent d'abord en équité, puis habillent leur équité d'un revêtement de droit logique. On n'a pas une compréhension exacte du droit si l'on ne se dit pas que, bien souvent le juge, et même le juge au niveau de la Cour de cassation, commence par se demander à qui, en équité, il doit donner raison, quitte ensuite à trouver les moyens logiques de lui donner raison. Le processus de l'analyse dogmatique qui montre le juge descendant de la règle de droit vers la décision est bien souvent mis en défaut. En réalité, le juge commence toujours par peser la décision, puis remonte ensuite à la règle de droit. Et comme il y a beaucoup de règles de droit possibles [à partir] d'une même règle, il arrivera toujours, une fois qu'il aura posé sa décision, à découvrir une règle de droit satisfaisante » (J. Carbonnier, Théorie sociologique des sources du droit, Association corporative des étudiants en droit de l'université Panthéon-Sorbonne, 1961, p. 181-182).
-
[30]
X. Magnon, Théorie(s) du droit, Ellipses, coll. Universités-Droit 2008, p. 133.
-
[31]
F. S. Cohen, The Legal Conscience Selected Papers, Yale University Press, 1960 (cité par F. Michaut, La recherche d'un nouveau paradigme de la décision judiciaire à travers un siècle de doctrine américaine, L'Harmattan, coll. Logiques juridiques, 2001, p. 211).
-
[32]
Par exemple, le juge Benjamin Cardozo a promu une méthode de l'utilité sociale devant amener à juger en fonction des conséquences (sociales, économiques, politiques, morales) des décisions et non en fonction du droit positif.
-
[33]
O. W. Holmes, The Common Law, MacMillan, 1881, p. 1.
-
[34]
K. Llewellyn, My Phlosophy of Law, Boston Law Co., 1941, p. 183.
-
[35]
Notamment J-Frank, op. cit.
-
[36]
J. Carbonnier, Théorie sociologique des sources du droit, op. cit., p. 41.
-
[37]
Par exemple, J. C. Hutcheson, « The Judgment Intuitive : the Function of the "Huntch" in Judicial Decision », Cornell Law Quarterly 1929, p. 274 s.
-
[38]
Ils écrivent ainsi : « Notre analyse empirique indique que les faits à l'origine du litige sont le facteur prédictif le plus important. Ceci est cohérent avec la théorie du réalisme juridique suggérant que la prise de décision judiciaire est affectée de manière significative par le stimulus des faits. [...] Nos résultats semblent confirmer que les arrêts rendus par la CEDH se basent principalement sur des arguments non juridiques. [...] [Ils] vont dans le sens de la théorie réaliste selon laquelle les juges sont sensibles au non-droit plutôt qu'au droit » (N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, art. préc.).
-
[39]
V. Champeil-Desplats, C. Grzegorczyk, M. Troper, dir.. Théorie des contraintes juridiques, Bruylant-LGDJ, coll. La pensée juridique, 2005.
-
[40]
M. Troper, « La liberté d'interprétation du juge constitutionnel », in P. Amselek, dir.. Interprétation et droit, Bruylant 1995, p. 242.
-
[41]
A. Ross, On Law and Justice, Stevens & Sons, 1958, p. 34 (cité par Ch. Grzegorczyk, F. Michaut, M. Troper, Le positivisme juridique, LGDJ, coll. La pensée juridique, 1993, p. 325).
-
[42]
Ibid., p. 54 (cité par F. Ost M. van de Kerchove, De la pyramide au réseau ? - Pour une théorie dialectique du droit. Publications des facultés universitaires Saint-Louis, 2002, p. 381).
-
[43]
H. L. A H art. Le concept de droit, trad. M. van de Kerchove, Publications des facultés universitaires Saint-Louis, 1994, p. 155.
-
[44]
Ibid.
-
[45]
Ibid.
-
[46]
L. Baum, The Puzzle of Judicial Behavior, University of Michigan Press, 2009.
-
[47]
B. Leiter, « Legal Formalism and Legal Realism: What is the Issue ? », Legal Theory 2010, n° 16, p. 111 s.
-
[48]
N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, art. préc.
-
[49]
R. Pound, « Mechanical jurisprudence », Columbia Law Review 1908, p. 605 s.
-
[50]
Pour Correctional offender management profiling alternative sanctions.
-
[51]
Si les résultats semblent prometteurs puisque les taux de récidive ont sensiblement diminué dans différents États, Compas a néanmoins été critiqué : quatre journalistes ayant comparé les parcours de 10 000 détenus aux prévisions que l'algorithme avait réalisées les concernant ont constaté un biais ethnique : les Noirs ont été systématiquement jugés plus susceptibles de récidiver, comme si l'un des critères les plus décisifs de l'algorithme résidait dans la couleur de peau (J. Larson, S. Mattu, L. Kirchner, J. Angwin, « How We Analyzed the Compas Recidivism Algorithm », Propublica 23 mai 2016 (disponible à l'adresse <www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm>)). En effet, 44, 9 % des Afro-Américains classés dans la catégorie des individus hautement susceptibles de récidiver n'ont dans les faits pas récidivé dans les deux années suivant leur libération, quand 23, 5 % seulement des personnes blanches classées dans cette catégorie n'ont dans les faits pas récidivé. 47, 7 % des personnes blanches jugées moyennement dangereuses ont récidivé, tandis que 28 % des personnes noires jugées moyennement dangereuses ont récidivé. Les individus noirs ont donc deux fois plus de chances que les individus blancs d'être considérés à tort comme potentiellement récidivistes. Et le procureur général Éric Holder (l'équivalent du ministre de la Justice) de pointer du doigt les risques liés au recours aux algorithmes prédictifs : même s'ils sont conçus « avec les meilleures intentions », ils peuvent « exacerber des disparités injustes et injustifiées qui sont déjà trop communes dans notre système judiciaire et notre société » (cité par A. Fradin, « États-Unis : un algorithme qui prédit les récidives lèse les Noirs », Rue 89, 24 mai 2016 (disponible à l'adresse <rue89. nouvelobs.com/2016/05/24/etats-unis-algorithme-predit-les-recidives-lese-les-noirs-264121>).
-
[52]
N. Aletras, V. Lampos, D. Tsarapatsanis, D. Preotiuc-Pietro, art. préc.
-
[53]
Case Law Analytics (<caselawanalytics.com>) quantifie l'aléa judiciaire, anticipe les décisions de justice et détermine le montant en euros que peut espérer toucher un justiciable dans différents 1ypes de litiges.
-
[54]
Predictice (<predictice.com>), service lancé en septembre 2016, offre aux cabinets d'avocats et aux services juridiques des entreprises un outil capable d'estimer les chances d'obtenir gain de cause en cas de procédure judiciaire, cela dans toutes les branches du droit, du droit du travail au droit fiscal en passant par le droit des affaires et le droit administratif. Predictice permet également d'optimiser les stratégies contentieuses en identifiant et hiérarchisant les éléments pouvant influencer positivement l'issue du litige, les arguments pouvant le plus fortement toucher les juges et donc sur lesquels il serait opportun de se focaliser. Enfin, l'algorithme peut fournir une estimation des indemnités obtenues dans le cadre de contentieux similaires préalablement jugés et peut produire une carte des juridictions les plus favorables selon le domaine en cause.
-
[55]
Sur son site officiel (<watson2016.com>), le candidat proposait un programme ambitieux. Et son équipe de campagne pouvait défendre que, si Watson avait intégré la Maison Blanche, étant capable d'analyser beaucoup mieux que quiconque des données complexes et variées, il aurait pris « dans tous les cas les meilleures décisions, quel que soit le domaine, en tenant compte des impacts sur l'économie mondiale, l'environnement, l'éducation, la santé, les relations internationales ou encore les libertés civiles ».