Couverture de CRII_092

Article de revue

Policing & big data. La mise en algorithmes d’une politique internationale

Pages 23 à 48

Notes

  • [1]
    Franck Petiteville, Andy Smith, « Analyser les politiques publiques internationales », Revue française de science politique, 56 (3), 2006, p. 357-366.
  • [2]
    Jason Sharman, The Money Laundry : Regulating Criminal Finance in the Global Economy, Ithaca, Cornell University Press, 2011 ; Mark Nance, « The Regime that FATF Built : An Introduction to the Financial Action Task Force », Crime, Law and Social Change, 69 (2), 2018, p. 109-129.
  • [3]
    Gafi, Qui sommes-nous ?, Paris, 2021 (https://www.fatf-gafi.org/fr/aproposdugafi/).
  • [4]
  • [5]
    Gafi, Normes internationales sur la lutte contre le blanchiment de capitaux et le financement du terrorisme et de la prolifération. Les recommandations du Gafi, Paris, 2020.
  • [6]
    Gafi, Financial Action Task Force – Thirty Years, Paris, 2019, p. 4-5.
  • [7]
    Anthony Amicelle, « Policing through Misunderstanding : Insights from the Configuration of Financial Policing », Crime, Law and Social Change, 69 (2), 2018, p. 207-226.
  • [8]
    Benjamin Bowling, Rober Reiner, James Sheptycki, The Politics of the Police, Oxford, Oxford University Press, 2019, p. 5.
  • [9]
    Robert T. Naylor, « Wash-out : A Critique of Follow-the-money Methods in Crime Control Policy », Crime, Law and Social Change, 32, 1999, p. 1-58.
  • [10]
    B. Bowling, R. Reiner, J. Sheptycki, The Politics of the Police, op. cit., p. xiii.
  • [11]
    Fabien Jobard, Jacques de Maillard, Sociologie de la police. Politiques, organisations, réformes, Paris, Armand Colin, 2015.
  • [12]
    Gilles Favarel-Garrigues, Laurent Gayer (dir.), « Justiciers hors-la-loi », Politix, 29 (115), 2016 ; Laurent Fourchard, « Le vigilantisme contemporain. Violence et légitimité d’une activité policière bon marché », Critique internationale, 78 (1), 2018, p. 169-186.
  • [13]
    Ian Loader, « Plural Policing and Democratic Governance », Social & Legal Studies, 9 (3), 2000, p. 323-345 ; Adam Crawford, « Networked Governance and the Post-regulatory State ? Steering, Rowing and Anchoring the Provision of Policing and Security », Theoretical Criminology, 10 (4), 2006, p. 449-479 ; Trevor Jones, Tim Newburn (eds), Plural Policing : A Comparative Perspective, Londres, Routledge, 2006 ; Dominique Boels, Antoinette Verhage, « Plural Policing : A State-of-the-Art Review », Policing : An International Journal of Police Strategies and Management, 39 (1), 2016, p. 2-18.
  • [14]
    Martin Nokleberg, « Examining the How of Plural Policing : Moving from Normative Debate to Empirical Enquiry », The British Journal of Criminology, 60 (3), 2020, p. 681-702 ; Jacques de Maillard, Mathieu Zagrodzki, « Plural Policing in Paris : Variations and Pitfalls of Cooperation between National and Municipal Police Forces », Policing and Society, 27 (1), 2017, p. 54-67.
  • [15]
    Anthony Amicelle, Karine Côté-Boucher, Benoît Dupont, Massimiliano Mulone, Clifford Shearing, Samuel Tanner (eds), The Policing of Flows. Challenging Contemporary Criminology, New York, Routledge, 2019.
  • [16]
    Gafi, Financial Action Task Force – Thirty Years, op. cit., p. 43.
  • [17]
    Olly Owen, « Maintenir l’ordre au Nigeria : vers une histoire de la souveraineté de l’État », Politique africaine, 128, 2012, p. 25.
  • [18]
    Ibid.
  • [19]
    Gafi, Normes internationales sur la lutte contre le blanchiment de capitaux et le financement du terrorisme et de la prolifération. Les recommandations du Gafi, op. cit.
  • [20]
    A. Amicelle, « Naissance d’une agence de renseignement : droits d’entrée dans les univers de la finance et de la sécurité », Cultures & Conflits, 114-115, 2019, p. 171-197.
  • [21]
    Gafi, Financial Action Task Force – Thirty Years, op. cit., p. 4.
  • [22]
    Sur cette perspective, voir l’introduction à ce dossier, Sylvain Antichan, Cyril Magnon-pujo, « Les espaces sociaux du gouvernement international de la violence », Critique internationale, 92 (3), 2021, p. 9-22.
  • [23]
    Vincent Dubois, « L’action de l’État, produit et enjeu des rapports entre espaces sociaux », Actes de la recherche en sciences sociales, 201-202 (1-2), 2014, p. 11-25.
  • [24]
    Louise Amoore, Rita Raley, « Securing with Algorithms : Knowledge, Decision, Sovereignty », Security Dialogue, 48 (1), 2017, p. 3-10.
  • [25]
    Bilel Benbouzid, « Quand prédire, c’est gérer. La police prédictive aux États-Unis, Réseaux, 211 (5), 2018, p. 221-256.
  • [26]
    Sarah Brayne, Angèle Christin, « Technologies of Crime Prediction : The Reception of Algorithms in Policing and Criminal Courts », Social Problems, 2020, p. 1-17.
  • [27]
    Janet Chan, Lyria Bennett Moses, « Making Sense of Big Data for Security », The British Journal of Criminology, 57 (2), 2017, p. 299-319.
  • [28]
    Anthony Amicelle, David Grondin, « Algorithms as Suspecting Machines : Financial Surveillance for Security Intelligence », dans David Lyon, David Murakami Wood (eds), Big Data Surveillance and Security Intelligence : The Canadian Case, Vancouver, University of British Columbia Press, 2021, p. 68-87.
  • [29]
    Gilles Favarel-Garrigues, Thierry Godefroy, Pierre Lascoumes, Les sentinelles de l’argent sale : les banques aux prises avec l’antiblanchiment, Paris, La Découverte, 2009.
  • [30]
    Cécile Méadel, Guillaume Sire, « Les sciences sociales orientées programmes. État des lieux et perspectives », Réseaux, 206 (6), 2017, p. 27.
  • [31]
    Anthony Amicelle, Vanessa Iafolla, « Suspicion-in-the-making : Surveillance and Denunciation in Financial Policing », The British Journal of Criminology, 58 (4), 2018, p. 845-863.
  • [32]
    ACAMS, « Best Practices to Successfully Implement an AML Monitoring System », ACAMS Today, 17 (1), 2018, p. 23-25.
  • [33]
    G. Favarel-Garrigues, T. Godefroy, P. Lascoumes, « Les porteurs discrets de la surveillance financière », Critique internationale, 48 (3), 2010, p. 77-95.
  • [34]
    Dominique Cardon, « Le pouvoir des algorithmes », Pouvoirs, 164 (1), 2018, p. 63-73.
  • [35]
    Solon Barocas, Alex Rosenblat, Danah Boyd, Seeta Peña Gangadharan, Corrine Yu, Data & Civil Rights : Technology Primer, Data & Society Research Institute, 2014 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2536579).
  • [36]
    D. Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Le Seuil, 2015, p. 7.
  • [37]
    Claudia Aradau, Tobias Blanke, « Politics of Prediction : Security and the Time/space of Governmentality in the Age of Big Data », European Journal of Social Theory, 20 (3), 2017, p. 373-391 ; A. Christin, « Algorithms in Practice : Comparing Web Journalism and Criminal Justice », Big Data & Society, 4 (2), 2017, p. 1-14 ; Mareile Kaufmann, Simon Egbert, Matthias Leese, « Predictive Policing and the Politics of Patterns », The British Journal of Criminology, 59 (3), 2019, p. 674-692.
  • [38]
    Gafi, Financial Action Task Force – Thirty Years, op. cit., p. 37.
  • [39]
    Transcription du discours de clôture du président de la République, Emmanuel Macron, à la conférence contre le financement du terrorisme « No Money for Terror », 2018 (https://www.elysee.fr/front/pdf/elyseemodule-1867-fr.pdf).
  • [40]
    B. Benbouzid, D. Cardon, « Machine à prédire », Réseaux, 211 (5), 2018, p. 9-33.
  • [41]
    A. Amicelle, D. Grondin, « Algorithms as Suspecting Machines : Financial Surveillance for Security Intelligence », cité.
  • [42]
    A. Amicelle, V. Iafolla, « Suspicion-in-the-making : Surveillance and Denunciation in Financial Policing », art. cité.
  • [43]
    Didier Bigo (dir.), « Suspicion et exception », Cultures & Conflits, 58, 2005.
  • [44]
    Entretien 7, avec le directeur du département anti-blanchiment et l’un de ses adjoints, 2018.
  • [45]
    Entretien 8, avec un agent de Canafe (Centre d’analyse des opérations et déclarations financières du Canada, Fintrac en anglais), service fédéral de renseignement financier, également régulateur financier, Montréal, 2015.
  • [46]
    Danah Boyd, Kate Crawford, « Critical Questions for Big Data. Provocations for Cultural, Technological, and Scholarly Phenomenon », Information, Communication & Society, 15 (5), 2012, p. 662-679.
  • [47]
    A. Christin, « Algorithms in Practice : Comparing Web Journalism and Criminal Justice », art. cité, p. 3 ; S. Brayne, A. Christin, « Technologies of Crime Prediction : The Reception of Algorithms in Policing and Criminal Courts », art. cité, p. 8.
  • [48]
    Entretien 1, avec le responsable des projets internes de la banque en matière d’anti-blanchiment, 2018.
  • [49]
    Marc Lenglet, « Ambivalence and Ambiguity : The Interpretative Role of Compliance Officers », dans Isabelle Huault, Christelle Richard (eds), Finance : The Discreet Regulator. How Financial Activities Shape and Transform the World, New York, Palgrave Macmillan, 2012.
  • [50]
    Document interne 1, p. 14.
  • [51]
    A. Christin, « Algorithms in Practice : Comparing Web Journalism and Criminal Justice », art. cité ; Frank Pasquale, The Black Box Society : The Secret Algorithms that Control Money and Information, Cambridge, Harvard University Press, 2015 ; Carrie B. Sanders, James Sheptycki, « Policing, Crime and “Big Data” ; Towards a Critique of the Moral Economy of Stochastic Governance », Crime, Law and Social Change, 68, 2017, p. 1-15.
  • [52]
    Entretien 6, avec le chef de l’équipe chargée de statuer sur les alertes automatisées de soupçon, 2018.
  • [53]
    Entretien 1, avec le responsable des projets internes de la banque en matière d’anti-blanchiment, 2018.
  • [54]
    Entretien 7, avec le directeur du département anti-blanchiment et l’un de ses adjoints, 2018.
  • [55]
    Ibid.
  • [56]
    Gafi, Normes internationales sur la lutte contre le blanchiment de capitaux et le financement du terrorisme et de la prolifération. Les recommandations du Gafi, op. cit.
  • [57]
    Danielle Keats Citron, Frank A. Pasquale, « The Scored Society : Due Process for Automated Predictions », Washington Law Review, 89 (1), 2014, p. 1-33.
  • [58]
    Kelly Hannah-Moffat, « Algorithmic Risk Governance : Big Data Analytics, Race and Information Activism in Criminal Justice Debates », Theoretical Criminology, 23 (4), 2018, p. 453-470 ; S. Brayne, A. Christin, « Technologies of Crime Prediction : The Reception of Algorithms in Policing and Criminal Courts », art. cité.
  • [59]
    Document interne 1, en prévision de l’implantation des algorithmes de suspicion.
  • [60]
    Fintrac, Guide de l’approche axée sur les risques pour lutter contre le blanchiment d’argent et le financement des activités terroristes, Ottawa, 2017.
  • [61]
    Fintrac, Indicateurs de blanchiment d’argent et de financement du terrorisme – Entités financières, Ottawa, 2019 (https://www.fintrac-canafe.gc.ca/guidance-directives/transaction-operation/indicators-indicateurs/fin_mltf-fra).
  • [62]
    Ibid.
  • [63]
    Ibid.
  • [64]
    Fintrac, Comment déterminer si des opérations financières sont douteuses ?, Ottawa, 2020.
  • [65]
    Entretien 1, avec le responsable des projets internes de la banque en matière d’anti-blanchiment, 2018.
  • [66]
    Geoffrey P. Alpert, John M. MacDonald, Roger G. Dunham, « Police Suspicion and Discretionary Decision Making during Citizen Stops », Criminology, 43 (2), 2005, p. 407-434 ; Fabien Jobard, René Lévy, John Lamberth, Sophie Névanen, « Mesurer les discriminations selon l’apparence : une analyse des contrôles d’identité à Paris », Population, 67 (3), 2012, p. 423-451.
  • [67]
    Entretien avec un représentant de Fintrac/Canafe, anciennement agent de conformité anti-blanchiment dans plusieurs institutions financières, Toronto, 2016.
  • [68]
    Fintrac, Indicateurs de blanchiment d’argent et de financement du terrorisme – Entités financières, op. cit.
  • [69]
    John Dewey, Logic : The Theory of Inquiry, New York, Holt, 1938.
  • [70]
    Document interne 1, sur les objectifs opérationnels affichés et les bénéfices escomptés.
  • [71]
    B. Benbouzid, D. Cardon, « Machine à prédire », art. cité.
  • [72]
    Jean-Sébastien Vayre, « Comment décrire les technologies d’apprentissage artificiel ? Le cas des machines à prédire », Réseaux, 211 (5), 2018, p. 69-104.
  • [73]
    Daniel Neyland, The Everyday Life of an Algorithm, New York, Palgrave Macmillan, 2019.
  • [74]
    Ibid., p. 32.
  • [75]
    Entretien 1, avec le responsable des projets internes de la banque en matière d’anti-blanchiment, 2018.
  • [76]
    Entretien 4, avec le responsable informatique de la banque pour le projet d’implantation, 2018.
  • [77]
    Entretien 6, avec le chef de l’équipe chargée de statuer sur les alertes automatisées de soupçon, 2018.
  • [78]
    J.-S. Vayre, « Comment décrire les technologies d’apprentissage artificiel ? Le cas des machines à prédire », art. cité, p. 85.
  • [79]
    Document interne 3.
  • [80]
    Ibid.
  • [81]
    Dominique Boullier, Sociologie du numérique, Paris, Armand Colin, 2016 ; J.-S. Vayre, « Comment décrire les technologies d’apprentissage artificiel ? Le cas des machines à prédire », art. cité.
  • [82]
    F. Pasquale, The Black Box Society : The Secret Algorithms that Control Money and Information, op. cit.
  • [83]
    Donald MacKenzie, « A Sociology of Algorithms : High-Frequency Trading and the Shaping of Markets », juin 2014 (https://uberty.org/wp-content/uploads/2015/11/mackenzie-algorithms.pdf).
  • [84]
    Ann-Christina Lange, Marc Lenglet, Robert Seyfert, « On Studying Algorithms Ethnographically : Making Sense of Objects of Ignorance », Organization, 26 (4), 2018, p. 598-617.
  • [85]
    D. Neyland, The Everyday Life of an Algorithm, op. cit., p. 45-46, p. 49-50.
  • [86]
    Un des documents préparatoires internes.
  • [87]
    Entretien 4, avec le responsable informatique de la banque pour le projet d’implantation, 2018.
  • [88]
    Entretien 3, avec un des membres du projet d’implantation chargé du paramétrage des algorithmes, 2018.
  • [89]
    P. Lascoumes, « Rendre gouvernable : de la “traduction” au “transcodage” : l’analyse des processus de changement dans les réseaux d’action publique », dans CURAPP, La gouvernabilité, Paris, PUF, 1996, p. 334-335.
  • [90]
    Entretien 1, avec le responsable des projets internes de la banque en matière d’anti-blanchiment, 2018.
  • [91]
    Entretien 5, avec un des analystes d’affaires du projet d’implantation, 2018.
  • [92]
    Pour une situation comparable, voir D. Neyland, The Everyday Life of an Algorithm, op. cit.
  • [93]
    Une alerte est qualifiée de productive si l’analyste chargé de la traiter conclut qu’il ne s’agit pas d’une erreur manifeste mais d’un cas suffisamment sérieux pour être investigué plus avant par un analyste de niveau 2 en vue d’une éventuelle déclaration de soupçon.
  • [94]
    Entretien 3, avec un des membres du projet d’implantation chargé du paramétrage des algorithmes, 2018.
  • [95]
    Ibid.
  • [96]
  • [97]
    J. Sheptycki, « The Police Intelligence Division-of-Labour », dans Benoît Dupont, Chad Whelan, Peter K. Manning (eds), Policing across Organisational Boundaries. Developments in Theory and Practice, New York, Routledge, 2020, p. 39.

1En 1989, le sommet du G7 organisé à Paris, sous la présidence de François Mitterrand, donnait naissance à un groupe de travail temporaire qui s’est transformé au fil du temps en une organisation internationale à part entière : le Groupe d’action financière (Gafi). Ce changement de statut témoigne de l’institutionnalisation progressive d’une « politique publique internationale » [1] autour du problème de l’« argent sale » [2]. Un fait social a été converti en objet de préoccupation, de débat et d’action publique internationale avec la reconnaissance d’un nouveau crime, le blanchiment de capitaux, et la fabrique de normes ayant « vocation à être appliquées par tous les pays du monde » [3]. Selon les termes officiels, « de nombreux actes criminels visent à générer des bénéfices pour l’individu ou le groupe qui les commet. Le blanchiment de capitaux consiste à retraiter ces produits d’origine criminelle pour en masquer l’origine illégale. La vente illégale d’armes, la contrebande et les activités de la criminalité organisée, notamment le trafic de stupéfiants et les réseaux de prostitution, peuvent générer des sommes énormes. L’escroquerie, les délits d’initiés, la corruption ou la fraude informatique permettent aussi de dégager des bénéfices importants, ce qui incite les délinquants à “légitimer” ces gains mal acquis grâce au blanchiment de capitaux » [4]. D’abord centrée sur l’argent de la drogue, cette politique a été étendue à l’ensemble des produits de la criminalité, sans oublier le financement du terrorisme et de la prolifération nucléaire [5]. Fort de trois décennies d’existence et d’évolution, le Gafi serait devenu « un contributeur dynamique à la paix et à la sécurité » [6]. Pour ce faire, la production in concreto d’une politique contre les flux financiers illicites, et plus généralement contre la criminalité et le terrorisme, est allée de pair avec l’émergence d’une nouvelle configuration de policing[7].

2Si toutes les activités tournées vers la réalisation de l’ordre social ne relèvent pas à proprement parler du policing, celui-ci trouve sa spécificité et sa cohérence dans la présence d’une « opération de surveillance, couplée à la menace de sanctions en cas de déviance – soit immédiatement, soit en lançant des procédures pénales » [8]. En appelant solennellement à suivre l’argent – follow the money selon la formule consacrée [9] –, c’est-à-dire à surveiller les flux de capitaux pour lutter contre le crime, la politique internationale s’est traduite dans la pratique par un policing financier généralisé. Omniprésente dans la littérature anglophone, la notion de policing se distingue de celle de police en ce qu’elle vise à souligner un paradoxe qui n’est qu’apparent, à savoir que « tout ce qui est policier n’est pas l’apanage de la police » [10]. Le policing, en tant qu’« action de faire la police » [11], n’a pas et n’a en définitive jamais été l’exclusive de ce qui est communément appelé la police, à savoir un type particulier et historiquement situé d’institution sociale. Il peut être effectué par une grande variété d’acteurs sociaux, et selon différents arrangements institutionnels, avec ou sans, voire contre, la police [12]. À ce titre, le policing financier repose sur une chaîne de collaborations originale entre des acteurs individuels et collectifs, policiers et non policiers, publics et privés, nationaux et transnationaux. Il s’inscrit en cela dans une tendance de fond – la « pluralisation du policing » – qui, si elle n’est encore une fois pas nouvelle, n’a cessé de s’accentuer au cours de ces dernières décennies [13].

3Objet d’une abondante littérature, cette expression témoigne de la multiplication des types d’acteurs et des formes institutionnelles engagés dans la production de sécurité, loin du monopole supposé de l’État central et de ses traditionnelles forces de police. Si elle est générale, cette tendance n’est pas pour autant homogène, et se caractérise par des configurations variées selon les contextes, les domaines et les échelles d’intervention [14]. Notre objet d’étude a participé de la montée en puissance d’une dynamique particulièrement visible dans le cadre du « policing des flux » [15], qui concerne la circulation des personnes, des marchandises, des capitaux ou encore des informations à l’ère numérique. Qu’il s’agisse des compagnies de transports aérien, maritime, ferroviaire et routier, des banques et des sociétés de transfert d’argent ou encore du secteur des télécommunications et des plateformes de réseaux sociaux, les grands opérateurs – publics et privés – de mobilités (trans) nationales sont de plus en plus impliqués dans des politiques de sécurité, dont en premier lieu l’antiterrorisme. À l’instar de ces piliers du capitalisme contemporain qui ne sont pas à proprement parler des entreprises de sécurité privée, l’exercice du policing passe en partie par cette mise en relation des univers de l’économie et de la finance avec ceux du pénal et de la sécurité intérieure et internationale.

4Dans cette perspective, le policing financier dépend d’une mission de surveillance confiée, par force de loi, à un large cercle d’entreprises et d’intermédiaires financiers, à commencer par les banques. C’est par leur biais et en leur sein qu’il s’agit de prévenir l’« utilisation abusive des systèmes financiers » et de collecter des informations pour produire du renseignement afin de « porter atteinte aux activités terroristes [et criminelles] et d’identifier les personnes impliquées » [16]. Des dispositifs internes sont mis en place, avec plusieurs dizaines, centaines, voire milliers de salariés qui peuvent y être dédiés à plein temps selon les banques. Plus que de simples surveillants, ces agents spécialisés, aux profils variés, sont rémunérés pour « policer » au sens étymologique du terme, c’est-à-dire « réguler, contrôler, autoriser et interdire, gérer » [17]. Et si « être capable de policer, c’est exercer la souveraineté de l’État » [18], alors ils prennent part à cet exercice régalien en régulant et en contrôlant les relations d’affaires, en autorisant ou en interdisant certaines opérations ou produits financiers à certains clients et en gérant les flux de capitaux entrants et sortants dans le cadre d’une politique publique de sécurité. Enfin, « lorsqu’une institution financière suspecte, ou a des motifs raisonnables de suspecter, que des fonds sont le produit d’une activité criminelle ou ont un rapport avec le financement du terrorisme, elle devrait être obligée en vertu de la loi de faire immédiatement une déclaration d’opération suspecte » [19]. De quelques milliers à près d’un demi-million par an selon les pays, ces déclarations de soupçon ont pour finalité affichée de contribuer au travail des services étatiques de sécurité, des autorités policières et judiciaires jusqu’aux agences de renseignement intérieur et extérieur, en passant par les forces armées dans certains cas de figure encore rares [20]. Les déclarations de soupçon font office d’exemples par excellence de l’« effort de collaboration pour réduire les dommages causés par la criminalité, le terrorisme et la prolifération des armes de destruction massive » [21]. Dans ce cadre, les banques et autres « entités déclarantes » ne sont plus seulement des prestataires de services économiques et financiers au service de leurs clients, mais aussi des opérateurs de surveillance et de dénonciation au service de l’État sécuritaire et de la coopération intergouvernementale contre une série de menaces.

5C’est précisément à la lumière de ces opérations de surveillance financière, fondements d’une action publique de sécurité allant « au-delà de l’État », que nous entendons questionner ici une politique internationale dont la production in concreto renvoie « non seulement à des acteurs mais aussi à des espaces sociaux dotés de logiques sociales spécifiques et entretenant des rapports de collusion et de collision » [22]. Loin d’être circonscrite à un champ social unique, cette politique a été entièrement construite sur cette mise en relation d’univers de pratiques et de rationalités différenciés [23]. Dès lors, comment cette articulation s’opère-t-elle, et avec quels effets, tant sur le fonctionnement de ces univers sociaux que sur l’exercice du policing contemporain ?

6Pour répondre à ces questions, nous avons concentré l’analyse sur un point précis, aussi récent que crucial, d’articulation de ces univers et de leurs considérations respectives autour de la politique contre l’argent sale. Nous abordons cette articulation sur un plan sociotechnique, via l’avènement d’instruments de sécurité algorithmiques raccordés aux infrastructures informatiques des grandes institutions financières. Figures émergentes du policing et des pratiques de sécurité [24], de la patrouille de police [25] au tribunal pénal [26], en passant par les unités de renseignement criminel et de sécurité nationale [27], les algorithmes sont omniprésents dans le policing financier [28]. En moins de dix ans [29], leur présence s’est banalisée au sein des banques dans le cadre des efforts renouvelés de détection et de dénonciation des activités suspectes. Et dans ce cas comme dans d’autres, ils « apparaissent comme des objets-frontières qui font coopérer des groupes d’acteurs hétérogènes et dont les modalités d’usage diffèrent selon les mondes sociaux dans lesquels ils circulent » [30].

7Partant de ces caractéristiques, nous avons suivi pendant un an, à travers des observations, des réunions téléphoniques hebdomadaires, des entretiens semi-directifs et la consultation de documents internes, le processus d’implantation d’un programme de surveillance automatisée au sein d’une grande banque nord-américaine, plus précisément au Canada. Synonyme de contacts avec des dizaines de personnes impliquées au quotidien dans ce projet technologique, cette enquête inédite par sa durée comme par les interactions et les sources étudiées nous a permis de compléter une première série d’entretiens menés entre 2015 et 2017 dans d’autres banques, toujours au Canada [31] où 31 000 entreprises sont soumises aux obligations légales de surveillance et de dénonciation, avec à la clé près de 400 000 déclarations de soupçon pour l’année 2020. Malgré ces résultats et son statut de membre fondateur du Gafi, le Canada fait régulièrement l’objet de la part de l’organisation internationale de critiques qui ont entraîné des évolutions de sa législation nationale. Ces évolutions se sont traduites localement, d’une part, par une augmentation significative des effectifs alloués au policing financier au sein des banques, ceux de l’établissement étudié ici étant passés de quelques employés à plusieurs centaines en dix ans, d’autre part, par une mise en algorithmes généralisée de la surveillance. Croisant des professionnels, des échelles de régulation, des instruments et des impératifs différents au sein d’un seul et même établissement, ce processus cristallise les tensions inhérentes à une politique de sécurité reposant sur des établissements financiers.

8Nous reviendrons tout d’abord sur la construction du « besoin d’algorithmes » en tant qu’imposition et appropriation de principes hétéronomes au sein des univers de l’économie et de la finance. Nous rendrons compte ensuite des implications de cette nouvelle instrumentation sur les formes de surveillance et de suspicion à l’œuvre. Nous étudierons également les fonctionnalités et les caractéristiques techniques de l’instrumentation choisie et la façon dont celles-ci éclairent les difficultés structurelles d’articulation des univers de la finance et de la sécurité. Enfin, nous analyserons les conditions concrètes de raccordement de cet instrument de sécurité à l’infrastructure informatique de la banque comme autant de points de tension entre espaces sociaux différenciés.

La construction du besoin d’algorithmes

9« À l’ère des “big data”, la surveillance automatisée est devenue inévitable dans notre domaine d’expertise. Même si la technologie ne pourra peut-être jamais remplacer complètement les êtres humains quand vient le temps de combattre les méchants, le volume d’informations que les institutions financières ont besoin de traiter pour y parvenir rend impossible de “suivre l’argent” et d’identifier des criminels sans systèmes de surveillance automatisés [32]. »

10Désormais banale dans l’industrie bancaire, une telle affirmation illustre autant qu’elle promeut le déploiement d’instruments algorithmiques au cœur du policing financier. Elle est formulée par un représentant local de la principale firme de certification d’experts anti-blanchiment, l’Association of Certified Anti-Money Laundering Specialists (ACAMS), l’un des « porteurs discrets de la surveillance financière » établi dans 175 pays en 2020 [33]. Comme dans beaucoup d’autres domaines d’expertise, la référence aux big data vise à souligner l’ampleur des traces numériques générées par les activités humaines – avant tout en ligne mais aussi hors ligne – et par les choses en mouvement, comme l’argent. Dans le cas présent, il s’agit des données produites dans le cadre des relations d’affaires entre une banque et ses clients, en particulier leurs transactions financières dont le volume agrégé peut aisément atteindre et dépasser la centaine de millions par mois. Ce constat va de pair avec le développement d’outils analytiques dits avancés et la promesse d’agir sur une série de phénomènes et de tendances – concernant des objets et sujets d’intérêt – difficiles à saisir autrement. Ainsi, « plus que la simple collecte des données numériques, souvent figurée comme le principal enjeu du Big Data, c’est donc la force et la précision des calculs (notamment leur capacité à effectuer des traitements massifs en temps réel) qui expliquent l’émergence des algorithmes comme une nouvelle figure du pouvoir » [34]. La notion d’algorithme peut être définie ici comme « une séquence formellement spécifiée d’opérations logiques qui fournit des instructions étape par étape à des ordinateurs pour agir sur des données et ainsi automatiser des décisions » [35]. Pour l’écrire autrement, « comme la recette de cuisine, un algorithme est une série d’instructions permettant d’obtenir un résultat. À très grande vitesse, il opère un ensemble de calculs à partir de gigantesques masses de données (les “big data”) » [36].

11À la différence des algorithmes de prédiction développés au sein de la police, de la justice et du renseignement [37], l’objectif premier associé au policing financier n’est pas forcément d’installer un nouveau régime d’anticipation des événements, à moins de considérer au sens large que la détection d’argent sale vise à « interrompre l’activité terroriste avant qu’une attaque ne se produise » [38], ce qui reviendrait à « combattre par anticipation leurs projets [terroristes] » [39]. L’ambition est donc de se munir, plutôt que de « machines à prédire » stricto sensu[40], de « machines à soupçonner » [41], la suspicion étant le principe d’intervention sécuritaire privilégié dans et sur la société via les déclarations [42] ; même si logiques de prédiction et logiques de suspicion ne sont pas mutuellement exclusives, loin s’en faut [43]. Cela étant précisé, il convient de se pencher plus avant sur la construction du besoin plus ou moins soudain de s’équiper de telles machines au sein de l’industrie bancaire.

12Nombre des raisons invoquées recoupent celles identifiées dans d’autres secteurs d’activités – journalisme, marketing, santé – et d’autres facettes du policing contemporain, à commencer par la nécessité de faire face à une quantité considérable de données. Toutefois, cette nécessité pratique découle elle-même d’une nécessité juridique qui a présidé à toutes les autres, à savoir le renforcement des obligations en matière de surveillance financière dans le cadre de la législation contre le blanchiment d’argent et le financement du terrorisme. En écho aux pressions internationales récurrentes à l’encontre du Canada, l’évolution de la politique fédérale contre l’argent sale a en effet impulsé localement, au sein des institutions financières, une série de transformations, notamment sur le plan technique : « La chose la plus importante, c’est l’agrémentation. Depuis 2008, le régime a évolué au Canada. Il y a eu une réforme sur certains aspects, dont ce qu’on appelle la surveillance continue des clients dans les institutions financières. Et le volume est beaucoup trop important pour le faire à l’œil humain comme c’était fait chez nous jusqu’à tout récemment. Donc ce n’est pas une exigence règlementaire d’avoir un système automatisé, mais tu as un volume important, tu ne peux pas faire le travail. Et quand on dit surveillance en continu, l’important c’est de préciser que ce sont toutes les relations d’affaires, 100 % qui doivent être surveillées. (...) On a [X] millions de clients particuliers, plus les profils professionnels de compagnies, donc mettons [X] millions de profils. Puis [X] millions de transactions par mois. Puis je te dis qu’il faut que tu sois sûr que là-dedans tu identifies les possibles criminels et leur transactionnel évident. Déjà ton cerveau s’arrête là tout de suite et il dit : “C’est impossible de le faire à l’œil humain”. On a quand même regardé l’idée : “Est-ce que je ne signe pas avec [le fournisseur de technologies] et je demande aux employés de première ligne d’améliorer tous les contrôles manuels et humains qui sont en place pour atteindre l’objectif et arriver au même niveau de surveillance ?”. Imaginez regarder [X] millions de transactions, [X] millions de profils incluant ceux des entreprises, [X] millions en tout, c’est impossible. En plus un humain, il n’y a pas un humain qui regarde de la même façon » [44]. Le caractère inévitable des algorithmes ne s’est pas simplement imposé en raison du volume de données disponibles, mais en raison de l’obligation de les traiter dans le but d’une surveillance totale et continue au nom de la sécurité, et ce sans que le recours aux instruments automatisés soit formellement requis : « Au niveau des déclarations statutaires, il n’y a pas une banque dans le pays qui pourrait satisfaire à ses obligations sans avoir un système informatique. Et c’est sûr et certain que si demain je vais auditer une banque et leur demande : “Expliquez-moi comment vous captez vos déclarations” – “On fait ça de façon manuelle”, je vais tomber de ma chaise. Et il n’y a rien dans la loi qui dit précisément : “Vous avez besoin de vous équiper d’un système informatique pour capter” » [45]. À partir de cette raison initiale, le besoin de s’équiper en algorithmes de surveillance et de suspicion s’est imposé sur la base d’une double justification bien connue dans la littérature sur les big data, et au prix parfois d’une rationalisation a posteriori[46].

13L’argument informationnel ou argument d’efficacité [47] est celui qui a été émis avec le plus de force : « Il y a aussi un point d’efficacité parce que même si on n’avait pas de limites budgétaires et qu’il y avait 3 000 employés qui pouvaient venir travailler demain matin, même là tu ne peux pas faire de la surveillance efficace, même avec un nombre illimité de bras parce qu’il y a des dynamiques [patterns] de blanchiment d’argent qui ne se détectent pas à l’œil humain. Donc ce n’est pas juste une question de conformité à la loi, c’est aussi une question d’efficacité, budgétaire et opérationnelle » [48]. La surveillance et la détection automatisées d’activités suspectes surpasseraient celles opérées par des analystes, tant dans la possibilité de disposer d’une masse d’informations sans commune mesure que dans la capacité à en faire bon usage – pour avoir prise sur des phénomènes criminels décrits comme de plus en en plus complexes –, et ce dans des délais et pour un coût moindres.

14Cette recherche d’optimisation, en temps et en ressources, est cruciale pour les représentants d’un département anti-blanchiment agissant de fait comme relais d’une politique de sécurité, et pouvant apparaître aux yeux de leurs collègues comme des « agents doubles » [49], rémunérés par la banque mais travaillant pour l’État. Si l’objectif est de s’adapter à marche forcée aux changements règlementaires, ces agents du policing financier cherchent à le faire en légitimant leur démarche et leur position au sein de leur organisation. Dans les documents préparatoires du projet d’implantation d’algorithmes, il est précisé : « Le département des opérations anti-blanchiment est typiquement vu comme un centre de coût et il est important de contrôler, de justifier et d’allouer ces coûts de manière appropriée » [50].

15Cet argument d’efficacité opérationnelle et d’optimisation budgétaire en faveur de la surveillance algorithmique a été complété par celui d’objectivité ou de neutralité morale [51] : « Avant l’implantation [des algorithmes], le département de lutte contre le blanchiment, c’étaient les directeurs avec leur vision de ce qu’était un criminel, de ce qu’était une infraction. Chacun vient avec des valeurs et sa morale et là chaque crime, chaque situation pouvait être traitée selon ces valeurs différentes. Certains trouvaient par exemple que le fait de vendre de la drogue pouvait être plus problématique que d’autres choses. Bon à l’époque c’était illégal [la vente de cannabis] mais encore aujourd’hui certains peuvent trouver que c’est punissable. Donc peut-être que la production de cannabis ou les salons de massage, de danseuses ou les trucs comme ça, ce n’est pas moralement acceptable mais cela ne renvoie pas un soupçon de blanchiment et on est là pour faire de l’argent, donc il faut se concentrer sur ce qu’il faut vraiment avoir et se dégager un peu de la morale et des valeurs. Et avec les règles [algorithmes] on n’a plus le choix, on suit tout ce qui a été harmonisé. (...) C’est ce qui a été fait avec l’arrivée de ces technologies, se baser sur des critères définis par l’industrie, comme des schémas de blanchiment ou les risques de blanchiment d’argent, donc autre chose que des croyances populaires ou des trucs comme ça » [52]. Moins prégnant que le précédent au cours de notre enquête de terrain, ce principe de neutralité, garanti par des algorithmes dénués de préjugés et de biais discriminants incontrôlés, est tout de même partagé en interne, et plus largement au sein de l’industrie bancaire comme l’attestent les entretiens menés dans d’autres banques.

16Ces arguments d’efficacité, d’optimisation et d’objectivité ont contribué à renforcer ou à rationaliser le besoin d’investir dans une machine soupçonnante qui a d’abord été pensée comme une manière d’acheter de la conformité règlementaire. Si la question de la conformité dépasse le cadre de cette étude, il convient de rappeler que l’investissement notable des banques dans la surveillance est à comprendre à l’aune de cet enjeu. En tant qu’entités déclarantes majeures, les banques sont régulièrement auditées par les régulateurs financiers canadiens : en cas de non-conformité avérée, elles risquent des sanctions administratives, éventuellement pénales, partant la diffusion d’une publicité négative. Si les poursuites pénales sont rares, voire inexistantes, et que le montant des amendes demeure limité au Canada, quelques millions d’euros pour la fourchette haute, l’enjeu réputationnel et ses conséquences économiques jouent un rôle très important, en particulier entre banques nord-américaines : « Les correspondants bancaires entre eux remplissent des formulaires d’évaluation de risque : “Avez-vous un programme de conformité ? Avez-vous un chef de conformité ? Traitez-vous avec ce type de clientèle ?”. Ça circule beaucoup entre les institutions financières, donc on exige la même chose que ce que les autres exigent de nous, tout le monde se surveille. (...) On a des correspondances aux États-Unis, ils nous observent constamment. On a des employés qui travaillent à plein temps ici pour dealer avec [une grande banque américaine], pour leur garantir qu’on a ce qu’il faut en place. Ils vérifient, et quand tu es en relation d’affaires avec eux ils n’acceptent pas non plus que tu traites avec des activités qui chez eux sont interdites ou très à risque, sinon la relation d’affaires pourrait prendre fin » [53]. Dès lors, être un acteur économique légitime et un bon partenaire d’affaires implique d’être reconnu comme un bon agent du policing financier ou, à tout le moins, apparaître en conformité formelle avec les exigences règlementaires en la matière : « [Nous aurions] probablement fait les choses quand même [sans changement règlementaire]. Mais aurait-on fait autant ? Aurait-on créé une équipe de [X] personnes, aurait-on mis autant de millions sur autant d’années s’il n’y avait pas une exigence règlementaire et une possibilité de pénalité importante ? La réponse est non. Mais est-ce que cela aurait été 0 ? La réponse est non aussi. Probablement que cela aurait été entre les deux. Très difficile à dire parce que c’est une situation hypothétique. Parce que là c’est une exigence règlementaire ! Et tu te dois de la respecter » [54]. Après ce retour sur les conditions de construction du besoin d’algorithmes, il convient d’analyser les effets de cette instrumentation, notamment sa portée et les façons de faire de la surveillance à l’interface de la finance et de la sécurité.

Du guichet aux algorithmes : une nouvelle surveillance

17« On a réussi à gagner du temps avec le régulateur parce qu’on avait un processus de signalement des premières lignes. Ça veut dire que les gens en succursales qui traitent directement avec les clients pouvaient nous signaler par un formulaire s’ils voyaient quelque chose d’inhabituel. Donc on pouvait dire : “Regardez, tous les clients sont surveillés”, ce qui n’était pas tout à fait vrai parce que ceux qui ne viennent pas au guichet, ceux qui ne font pas affaire avec un conseiller, ceux qui font juste des transactions via Internet, les gens des succursales ne peuvent pas nous faire des signalements dans ces cas-là. Mais on a gagné du temps parce qu’on disait que les gens en première ligne pouvaient faire des signalements. On a gagné du temps aussi parce que, pour la gestion des clients à risque, nous pouvions montrer avec des rapports que chaque mois les succursales passaient en revue manuellement les transactions de tous leurs clients à risque et quand ils voyaient quelque chose, ils nous faisaient un signalement. Mais là encore, cela ne concernait que les milliers de clients à risque, pas tous les autres millions de clients. (...) Puis le dernier point, et c’est, je pense, celui qui a fait en sorte que nous n’avons pas eu de sanctions, c’est qu’on avait un plan qui prévoyait d’implanter un système pour surveiller l’ensemble des clients [55]. »

18Comment passer d’une surveillance ponctuelle et ciblée à une surveillance globale et continue ? C’est la question qui s’est concrètement posée au sein de la banque comme dans toutes les autres, avec pour réponse commune l’instrumentation algorithmique. En cela, l’extrait d’entretien ci-dessus évoque en creux un avant et un après en matière de surveillance et de suspicion, et ce à deux égards au moins.

19Premièrement, pour ce qui a trait à la surveillance en tant que telle, les pratiques pré-algorithmiques étaient à la fois ponctuelles et ciblées. D’une part, la surveillance au guichet était limitée aux personnes se présentant physiquement en succursales et/ou échangeant directement avec leurs conseillers bancaires. En Amérique du Nord comme ailleurs, tous les employés de banque, du guichetier au gestionnaire de fortune, doivent être sensibilisés aux enjeux d’argent sale via des formations internes, et ils sont incités à être « vigilants » et à faire remonter des « déclarations d’opérations inhabituelles » auprès de leurs collègues du département anti-blanchiment. Au moment de l’enquête, le nombre d’alertes de ce type s’élevait en moyenne à 40 par semaine sur l’ensemble des succursales de la banque.

20D’autre part, cette surveillance au guichet, limitée aux moments d’interactions, était complétée par une surveillance à distance. Indexée aux risques, celle-ci était uniquement concentrée sur les clients considérés comme représentant un risque élevé de blanchiment d’argent ou de financement du terrorisme. Cette approche fondée sur le risque est la norme de référence, reconnue et promue internationalement par le Gafi [56]. Cela se traduit par des pratiques de risk scoring plus ou moins sophistiquées, telles qu’il en existe dans d’autres domaines propres aux univers de l’économie et de la finance [57], et à ceux du pénal et de la sécurité [58]. Dans ce cadre, la manière de faire en articulant surveillance et risque a évolué au sein de l’établissement étudié : « Jusqu’à [mois, année], le suivi des transactions était effectué manuellement chez [la banque] par le staff des succursales pour tous les clients qui étaient identifiés comme “à risque”. Depuis, cela a été fait manuellement par [le département anti-blanchiment] pour les clients identifiés à “haut risque” par [un outil dédié] » [59]. Chaque détenteur de compte bancaire est associé à une cote de risque d’argent sale calculée à partir d’une série de critères officiels tels que l’occupation professionnelle ou élective, le secteur d’activité, des aspects géographiques (distance du logement ou de l’entreprise avec la succursale bancaire, pays de résidence, activités ou intérêts à l’étranger, lien avec des pays à « haut risque »), les types de comptes, de produits et de services financiers consommés, les antécédents judiciaires ou encore le fait d’avoir été l’objet d’une déclaration de soupçon par le passé [60]. Dans l’établissement étudié, une douzaine de critères étaient utilisés pour calculer le score de chaque client sur une échelle de risque. Une cote de risque élevée est synonyme de surveillance renforcée, avec un passage en revue à intervalles réguliers des transactions des personnes et entités concernées. Moins de 1 % de la clientèle était ainsi à haut risque et soumis aux mesures de suivi et de contrôle accrues. Pour les clients à risque très élevé, ces discrètes opérations de surveillance peuvent être couplées, de manière discrétionnaire au sein de l’institution financière, à des mesures plus visibles et coercitives de suppression ou d’interdiction d’accès à certains services et produits financiers, ce qui peut aller chaque année jusqu’au de-risking, c’est-à-dire l’exclusion de la banque.

21Deuxièmement, pour ce qui a trait à la production du soupçon, les alertes internes générées par la surveillance au guichet et la surveillance à distance indexée aux risques se différencient entre elles par l’analyse comportementale effectuée. Au niveau de la surveillance au guichet, le soupçon initial porte principalement sur l’attitude des personnes, soit le fait d’avoir un comportement plus ou moins « normal » dans l’interaction sociale [61]. Canafe/Fintrac fournit à cet égard des « signaux d’alarme potentiels » : « Le client fait preuve d’un comportement nerveux ; le client réagit de façon défensive face aux questions ; le client ne se préoccupe pas des coûts de l’opération ou des frais plus élevés que d’habitude » [62]. À ces indicateurs d’anormalité comportementale s’ajoutent d’autres éléments contextuels : apporter des billets de banque « moisis, malodorants ou extrêmement sales », les présenter « emballés, transportés ou enveloppés d’une façon peu commune » [63]. Au sein de l’établissement étudié, un dépôt d’argent sentant littéralement le cannabis était un indicateur potentiel de trafic de stupéfiants à prendre en compte par les guichetiers, qui plus est si le client était lui-même imprégné de cette odeur « suspecte ». Et bien que les communiqués du service de renseignement financier rappellent régulièrement qu’« il est important de garder à l’esprit que les comportements peuvent être douteux, et non les personnes [en tant que telles] » [64], les dirigeants du département anti-blanchiment ont relevé que les guichetiers certes « regardaient tout le monde, mais très peu les gens “normaux”. (...) On demande un petit peu à des personnes de première ligne de devenir des experts de détection du blanchiment d’argent, ce qui est impossible. Moi, ça fait vingt ans que je suis aux services financiers et dix ans peut-être en anti-blanchiment, si j’étais guichetier, j’en détecterais des schémas de blanchiment, mais je ne le suis pas, je suis un spécialiste, donc tu comprends la difficulté » [65]. La frontière entre une logique de surveillance et de contrôle fondée sur le comportement et celle fondée sur la simple apparence peut être floue sur le terrain, en face à face, ce qui n’est pas sans rappeler, toute proportion gardée, certaines dynamiques relatives aux contrôles d’identité policiers [66]. Cependant, il est tout aussi probable que les agents en succursale se montrent peu concernés par la mission de sécurité incombant à leur banque : « L’essentiel c’est l’argent. Donc au niveau de la succursale, l’objectif principal des représentants du service à la clientèle, ou de la gestion de prêts, c’est de faire de l’argent, de vendre. De vendre en ouvrant des comptes, de vendre des cartes de crédit, de vendre des prêts hypothécaires, de vendre ceci, de vendre cela... C’est leur travail, faire de l’argent, et ils ont des quotas. Ils vont dire à leur équipe : “Aujourd’hui vous devez vendre [X] nombre de crédits, [X] nombre d’hypothèques, [X] nombre de cartes”. Ils poussent pour cela, en vous disant que si vous n’atteignez pas vos quotas, vous allez avoir une mauvaise évaluation de performances. Donc qu’arrive-t-il ? Des raccourcis sont pris. Vous ne passez pas le temps que vous devriez sur les obligations de connaissance du client, parce que les exigences de faire de l’argent passent encore en premier. Si je peux vendre un prêt hypothécaire, si je peux valider deux autres opérations ou vendre une carte de crédit en trente minutes c’est parfait, plutôt que de le faire en une heure, parce qu’il me faut une heure pour prendre le temps d’avoir une conversation et de tout remplir proprement. Je n’ai juste pas le temps de le faire, les succursales n’ont pas le temps, elles sont juste sous la pression de générer plus de recettes » [67]. En raison de cette tension permanente entre impératifs financiers et exigences sécuritaires, la surveillance au guichet peut se révéler limitée dans la pratique.

22Au niveau de la surveillance à distance du moins de 1 % de la clientèle à haut risque, le soupçon initial porte principalement sur le comportement transactionnel des individus par rapport à leur profil financier. Les « signaux d’alarme potentiels » renvoient alors, entre autres, aux cas de figure suivants : « L’activité transactionnelle (niveau ou volume) est incompatible avec la situation financière apparente du client, son modèle habituel d’activités ou sa profession (par exemple, étudiant, chômeur, aide sociale) ; un mouvement important et/ou rapide de fonds qui ne correspond pas au profil financier du client ; un changement soudain dans le profil financier, un type d’activité inhabituel ou les opérations du client » [68]. Une personne effectuant des dépôts ou des transferts d’argent de plusieurs milliers de dollars alors qu’elle est officiellement sans emploi et sans revenus devrait ainsi attirer l’attention des agents sur l’origine des fonds en circulation. Si cette surveillance indexée aux risques – matérialisée par des agents épluchant manuellement comptes et transactions sur une période donnée – s’est progressivement éloignée des succursales pour être centralisée au sein du département anti-blanchiment, le type de connaissances mobilisées à cet effet correspond avant tout au knowledge-about théorisé par John Dewey [69], soit une connaissance de seconde main des individus, fondée sur des faits rapportés et des documents. Il s’agit là d’une autre différence avec la surveillance au guichet, davantage associée à une forme d’acquaintance-knowledge, soit une connaissance de l’individu fondée sur des interactions en face à face qui peuvent se répéter dans le temps.

23Comparée à ces deux logiques de surveillance et de suspicion qui lui sont antérieures et avec lesquelles elle coexiste désormais, la logique algorithmique est différente sur presque tous les plans : « En mettant en place une solution de surveillance transactionnelle, le but est de cesser la majeure partie de ce travail manuel et de surveiller en permanence tous nos clients, pas juste ceux considérés à risque » [70]. Ainsi la différence avec les autres pratiques tient-elle, d’une part, à l’ambition d’un suivi quotidien de tous les clients, qu’ils se présentent ou non au guichet ou en rendez-vous, qu’ils aient ou non une cote de risque élevée, d’autre part, et même s’il s’agit aussi d’une surveillance transactionnelle comme pour celle indexée aux risques, à une attention poussée jusqu’à son paroxysme aux seuls comportements financiers, sans aucune autre forme de connaissances du client (acquaintance-knowledge) ou au sujet du client (knowledge-about). Les caractéristiques transactionnelles prennent définitivement le pas sur les caractéristiques sociodémographiques puisqu’une alerte automatisée peut être générée sans avoir besoin de « connaître » le client, c’est-à-dire sans que la transaction ciblée soit forcément rapportée au profil de son auteur. À quoi ressemble l’instrumentation censée rendre possible cette surveillance journalière, à distance, des comportements financiers de millions de personnes, et opérationnaliser techniquement et localement un pan entier d’une politique internationale ?

Une instrumentation sous contraintes de simplicité

24La première observation est l’écart constaté entre notre terrain de recherche et les écrits académiques sur la complexité, l’opacité et la capacité d’action (agency) associées aux algorithmes en tant que figure de pouvoir. Au-delà du caractère avant tout théorique et peu fondé empiriquement d’une part significative des études de sécurité consacrée aux algorithmes, cet écart témoigne aussi des conditions d’articulation de la finance et de la sécurité en tant qu’univers de pratiques et de rationalités différenciés.

25Tout d’abord, la complexité anticipée laisse place à la relative simplicité des algorithmes proposés par le fournisseur de technologie et sélectionnés, retoqués ou retravaillés au sein de la banque ; simplicité bien éloignée des méthodes d’apprentissage statistiques que recouvre la notion de machine learning[71]. À l’instar des autres banques enquêtées, l’instrument de surveillance automatisée est composé d’une vingtaine de règles, avec des hypothèses « prenant la forme de conditions/actions de type SI... ALORS » [72], via des scénarios prédéfinis de transactions financières. Autrement dit, comme l’algorithme de détection de bagage abandonné ethnographié par Daniel Neyland [73], chaque algorithme de surveillance et de détection d’activité suspecte est ici conçu comme un ensemble d’instructions ordonnées, étape par étape, et structurées par des conditions initiales (de type SI) devant mener à des conséquences (de type ALORS) [74]. Par exemple, si un client dépose plus de X milliers de dollars en espèces dans un laps de temps de X jours, alors une alerte sera générée. En pratique, ce type de règle basique est précisé et pondéré par une série de paramètres complémentaires pour améliorer les alertes et diminuer le taux de faux positifs. Cela passe notamment par une classification de la population surveillée, c’est-à-dire une différenciation de la clientèle selon des critères objectifs, minimalement entre particuliers et entreprises, et entre entreprises selon leur taille/chiffre d’affaires. Ainsi, le seuil monétaire de déclenchement d’une alerte pour la règle évoquée variera selon la « classe de population » concernée, un dépôt hebdomadaire de plusieurs dizaines de milliers dollars étant attendu d’une entreprise d’une certaine taille, pas d’un particulier. S’ajoute à cela une pondération de la règle indexée aux risques, avec un seuil d’alerte abaissé pour les clients ayant une cote de risque élevée. Dans ce cas, un individu à risque très élevé n’aura besoin de déposer que X milliers de dollars pour générer une alerte, alors qu’un client à risque faible pourra déposer plus du double dans le même laps de temps avant de déclencher une alerte à partir de la même règle transactionnelle. Chaque règle renvoyant à un nombre de points à atteindre pour déclencher automatiquement une alerte, les clients à risque partent avec des points d’avance. De plus, la règle est « apprenante » puisque, si une ou plusieurs alertes générées à l’encontre d’un client sont qualifiées, après analyse humaine, de non fondées, le nombre de points à atteindre – et donc le montant d’argent liquide à déposer sur une période donnée – est rehaussé. Nonobstant ces différentes possibilités de paramétrage, les algorithmes de suspicion demeurent relativement rudimentaires et parfaitement intelligibles, ce qui est pour partie contraint et pour partie choisi.

26Selon le directeur du projet d’implantation, l’instrumentation algorithmique peut permettre de détecter « tout le volet transactionnel présent dans les indicateurs fournis par Canafe/Fintrac, mais si tu as les données. Parce que, des fois, tu n’as pas les données. Par exemple, un des indicateurs pour le blanchiment d’argent ou plutôt pour le financement du terrorisme, c’est quelqu’un qui achèterait des billets d’avion et puis viderait son compte, etc. Tu imagines le nombre de choses nécessaires pour détecter ce schéma. Cela nécessite un centre qui détecte des achats de billets d’avion, un centre qui est capable de détecter que ton solde [de compte] est à zéro. Cela nécessite des règles combinées et c’est compliqué. Ce n’est pas impossible, c’est juste qu’on a déjà des difficultés à modéliser des retraits en espèces et des transferts entre comptes non reliés à cause de la qualité des données disponibles. (...) Autre exemple, pour le service de cartes de crédit, on a demandé à avoir un modèle de détection, une règle, pour le trafic d’êtres humains [en lien avec la prostitution] parce que ça fait partie des enjeux importants au Canada et que Canafe/Fintrac met beaucoup l’accent là-dessus. Mais c’est compliqué. Il va falloir surveiller les achats avec une seule carte de crédit pour régler plusieurs chambres d’hôtel dans la même journée, les repas collectifs au fast-food, etc. Il y a un paquet d’indicateurs que Canafe/Fintrac donne et ce sont de bons indicateurs, mais pour être capable d’en faire quelque chose, cela va nécessiter des règles, il va falloir en plus aller voir le bancaire en même temps qu’on regarde les cartes de crédit, cela va nécessiter beaucoup de règles d’affaires pour être capable de faire sortir des alertes permettant de détecter des schémas comme ceux-là. On ne peut pas se permettre de faire ça pour tous les risques de blanchiment ou de financement d’activités terroristes. Celle-là, moi et [le directeur], elle nous tient à cœur parce que là on parle de quelque chose, le trafic d’êtres humains, qui est un problème social important, avec des vies derrière tout cela. Donc on veut mettre l’accent dessus et on aimerait bien pouvoir disposer d’une règle pour ça. Mais si c’est pour que cela nous coûte trois millions de dollars et engager 40 personnes, on ne pourra pas se permettre de faire ça » [75]. Outre le fait qu’il montre que le rapport à la morale et aux valeurs est loin d’avoir disparu avec les algorithmes, notamment dans leur sélection, cet extrait d’entretien comprend des éléments clés, rencontrés tout au long de l’enquête de terrain. Tout d’abord, l’infrastructure informatique d’une banque et les caractéristiques de données numériques associées, tant dans leur format que dans leur catégorisation et leur contenu, sont déterminées par leur finalité première, celle d’offrir une prestation financière. Leur usage secondaire à des fins de sécurité et de lutte contre la criminalité bute invariablement sur cette structuration originelle, le codage initial – parfois ancien – n’ayant pas été pensé pour de tels détournements d’usage. Et si certains enquêtés ont exprimé l’idée de changer les systèmes informatiques centraux, ils l’ont fait sous la forme d’un vœu pieux, si ce n’est d’une boutade. Le responsable informatique du projet d’implantation insiste sur le fait qu’ils ne sont « pas retournés à la source car changer les codes dans les systèmes centraux, cela coûte très très très cher, et pour faire un tel changement il faut évaluer tous les impacts et là on part immédiatement sur plusieurs millions rien qu’en commençant à y penser et à aller dans ces systèmes, avec des impacts en cascade sur tous les systèmes satellites » [76]. Comme le résume non sans ironie un autre enquêté co-responsable de l’équipe d’analyse des alertes automatisées, « de manière générale le système bancaire et les systèmes technologiques bancaires n’ont pas été créés pour lutter contre le blanchiment d’argent » [77]. De ce point de vue, avant même de questionner le recours aux algorithmes à des fins de policing, l’automatisation de la surveillance et de la suspicion illustre sur un plan sociotechnique les difficultés structurelles d’articulation des univers de la finance et de la sécurité. Ces difficultés sont ici d’ordre infrastructurel et, sans être insurmontables, elles impliquent de lourds investissements au sein d’organisations à but lucratif dont le policing n’est ni le cœur de métier ni une source de profit. Alors qu’elles pèsent sur n’importe quelle agence publique de sécurité, les contraintes budgétaires sont encore plus prégnantes pour le département interne d’une banque voué par définition à occuper une position subalterne, avec des arbitrages à gagner et des choix à faire en conséquence. Ces contraintes techniques et budgétaires expliquent en partie la relative simplicité de l’instrumentation algorithmique.

27Toutefois, ce choix d’instrumentation et ces « contraintes de simplicité » [78] sont également confortés par une volonté d’intelligibilité et d’explicabilité des algorithmes vis-à-vis des autorités fédérales. Il faut en effet être capable de rendre des comptes sur les éléments mis en place. Un des documents préparatoires relatifs aux différents objectifs du projet d’implantation indique que ceux-ci tournent autour d’un seul et même but supérieur, à savoir « la satisfaction des besoins règlementaires » [79]. L’accent y est mis sur l’importance de « créer un environnement et/ou des rapports aisément accessibles et faciles à comprendre par les régulateurs, (...) tous les inspecteurs ne connaissant pas les détails du fonctionnement des solutions de cette nature. (...) Les inspecteurs attendent des institutions financières qu’elles soient capables de montrer leur travail dans une approche rapide et propre. Si elles ne sont pas en mesure de le faire, il existe un fort potentiel de contrôle réglementaire supplémentaire et de découvertes inutiles » [80]. Présent dans d’autres domaines d’activité [81], ce besoin d’intelligibilité et de transparence s’accorde mal avec l’opacité de « boîtes noires » [82] dont le fonctionnement exact et les calculs échapperaient à leurs utilisateurs, voire à leurs concepteurs [83]. Tout documenter, tout comprendre pour être ensuite en mesure de tout expliquer et de tout justifier a été le mantra répété maintes fois et pendant des mois par les responsables du projet d’automatisation, et en cela la relative simplicité des algorithmes sélectionnés a été une ressource. Ann-Christina Lange, Marc Lenglet et Robert Seyfert ont proposé une typologie composée de quatre « personnifications algorithmiques » (objets ; quasi-objets ; quasi-sujets ; sujets), selon laquelle la situation étudiée renvoie au premier cas de figure où, dans l’interaction homme-machine, l’algorithme tend à être traité comme un outil, un objet à contrôler, réduit à « des commandes de type “si-alors” avec des instructions ou des séries d’actions prédéfinies » [84]. Si cette idée de maîtriser l’objet algorithmique a bien accompagné l’ensemble du projet d’automatisation, depuis la sélection du fournisseur de technologie jusqu’à l’implantation proprement dite, cela ne signifie pas pour autant que cette dernière étape, étalée sur plusieurs années, se soit passée sans encombre et surtout sans tensions à l’interface de la finance et de la sécurité.

Ni trop ni trop peu : une politique de l’entre-deux

28« Si l’une des principales préoccupations au sujet des algorithmes est leur opacité, alors pouvoir regarder notre (...) algorithme est un pas en avant. Cependant, regarder une série de règles SI-ALORS est insuffisant en soi pour rendre compte d’un algorithme. Les algorithmes se combinent avec les architectures de système, les composants matériels, les logiciels/codes, les personnes, les espaces, les protocoles expérimentaux, les résultats, les bricolages et un éventail d’autres entités au travers desquels ils prennent forme. (...) Plutôt que de voir la capacité d’action ou le pouvoir comme résidant dans l’algorithme, cette approche serait plus à même de soulever des questions sur l’ensemble des relations permettant de mettre au point un algorithme [85]. »

29Traduction locale et technique d’une législation nationale transposant une politique internationale, le programme de surveillance automatisée se caractérise également par sa dimension transnationale avec une banque canadienne, une firme technologique américaine et un intégrateur européen (chargé de planifier et d’accompagner cette implantation). Au-delà de ces jeux d’échelles, la mise en relation de cet instrument algorithmique orienté sécurité avec une infrastructure informatique orientée finance a directement mobilisé près de 90 personnes, une soixantaine d’hommes et une vingtaine de femmes pendant plusieurs mois, dont un chef de projet, un chargé de projet, un adjoint administratif, un rédacteur, un technicien, un coach agile (pour la méthode de suivi du projet), un administrateur de bases de données, un conseiller en infrastructures/technologies de l’information, un chargé de livraison infrastructure, deux concepteurs, deux experts métier, deux conseillers en gestion de changement, deux conseillers en architecture détaillée, deux conseillers en architecture de solutions, trois conseillers en architecture générale, trois conseillers en développement, quatre analystes d’affaires, quatre chargés de livraison applicative, une douzaine d’analystes fonctionnels, une douzaine d’analystes et un coordinateur assurance qualité, et près de 20 programmeurs-analystes de plusieurs directions internes différentes. Cette équipe élargie a eu pour mission d’assurer dans l’ordre technique cette mise en relation au fondement du policing financier et de l’action ainsi menée contre toute une série de crimes. Si une analyse exhaustive des problématiques rencontrées dépasse le cadre de cet article, il convient de revenir sur quelques-uns des principaux points de tension auxquels l’équipe a dû faire face et qui illustrent l’état des rapports de force entre les univers de la finance et de la sécurité.

30En résonance directe avec l’histoire de la lutte contre l’argent sale, l’enjeu fondamental a été de faire dialoguer les différentes parties – techniques – en présence, afin que l’instrument de sécurité « comprenne » l’infrastructure financière : « [L’instrument de sécurité] requiert que toutes les données soient mises en correspondance avec une base de données centralisée. (...) [La banque] reçoit quotidiennement de nombreuses transactions de [X] systèmes différents. Chaque système dispose de sa propre série de transcodes utilisés pour identifier le type de transaction. Ces transactions doivent être uniques et correspondre à des catégories spécifiques au sein de [l’instrument de sécurité] afin que [celui-ci] puisse utiliser ces transactions dans sa surveillance. (...) Si des transactions sont mal cartographiées ou manquantes, il peut en résulter des alertes erronées » [86]. Le premier travail effectué par les professionnels mobilisés a donc consisté à « comprendre les données dans le système » [87], c’est-à-dire à identifier et cartographier l’ensemble des codes informatiques relatifs à chaque type de transaction financière pour être en mesure de les traduire dans un langage adapté à l’instrument de sécurité, nouveau pilier des opérations de surveillance au cœur du policing financier : « C’est quand même un travail de moine, cela a pris beaucoup de temps parce qu’on veut être sûr en bout de ligne que tout a bien été cartographié. Parce que chaque règle [de surveillance et de détection] fonctionne vraiment avec un type de transaction [retrait au guichet, au distributeur automatique, dépôt, transfert national, international, débit, crédit] mais il faut que cela soit bien retranscrit et que la transaction soit la bonne, qu’elle soit pertinente pour la règle. Et là, tu as tout type d’erreurs avec des codes inversés, ou des codes qui ne doivent pas être là, ou des codes qui sont douteux, des trucs comme ça, et il faut faire les correspondances. Donc oui, on entre dans chacune des transactions, on a le détail dans [l’instrument de sécurité] et on s’assure que la transaction correspond avec la source. Et on a trouvé des problèmes de cartographie » [88]. Il s’agit là d’un processus de transcodage d’une politique publique au sens littéral – électronique – du terme avec des « activités de regroupement et de transfert d’informations dans un code différent. Transcoder, c’est d’une part agréger des informations et des pratiques éparses, c’est aussi les construire et les présenter comme une totalité ; c’est enfin les transférer dans d’autres registres relevant de logiques différentes afin d’en assurer la diffusion à l’intérieur d’un champ social et à l’extérieur de celui-ci » [89]. Nos entretiens et nos observations nous ont révélé à quel point l’opérationnalisation de cette exigence de compréhension, de mise en relation et d’ajustement de données et d’instruments associés à des univers sociaux différents butait sur de nombreuses difficultés qui tiennent aux divergences de logiques, de pratiques et d’intérêts en présence.

31Lors de la cartographie des codes (plusieurs centaines) et sous-codes (plus de mille) bancaires, les enquêtés ont été confrontés à des erreurs de codification, un même code ayant pu être assigné, au fil du temps et de façon contre-intuitive, à différents types de transaction afin de diminuer les coûts inhérents à l’ajout de codes supplémentaires dans les systèmes centraux. Ils ont aussi et surtout fait face à un degré de précision informationnel qui, pensé pour l’univers financier, est loin d’être optimal pour celui de la sécurité, et ce malgré la relative simplicité des algorithmes de surveillance et de suspicion sélectionnés en amont. Les codes tendent à regrouper des types génériques de transactions renvoyant à des comportements sensiblement distincts pour l’instrument de sécurité. Et les sous-codes censés les différencier ont été historiquement peu ou pas documentés, la conservation de ce niveau de détails n’étant pas nécessaire à la bonne marche des activités financières. Si ce manque de documentation a pu être en partie comblé tout au long du projet d’implantation, les enquêtés ont cependant dû s’accommoder d’une architecture informatique fragmentée : « On s’est rendu compte, en faisant les tests et en livrant [l’instrument de sécurité] puis en s’appropriant les données, qu’un de nos problèmes, c’est la régularité de l’information. L’information est forcément quelque part, sauf que cela bascule d’un système à l’autre. Et d’un système à l’autre, il y a des informations qui sont coupées. Par exemple, prenons des chiffres théoriques, disons qu’il y a 100 champs [lignes de données] disponibles sur le client et sa transaction. Le système A a 50 de ces champs et le système B en a 50. Mais cela bascule dans un système C qui en prend 25 de l’un et 25 de l’autre. Et nous [au département anti-blanchiment], pour être capables de chercher ces données, on doit aller dans les sources autoritaires. En puisant dans le système C, on part avec seulement 50 % des données, pas avec 100. Et des fois on aurait peut-être eu besoin de données dans le système A ou B. Puis on est malheureusement obligés de faire beaucoup d’exercices d’enrichissement de données dans le projet pour être capables d’aller chercher certaines informations. Mais le niveau de difficulté supplémentaire était qu’il n’y avait pas de clé de référence unique pour être certains que la donnée dont on a besoin appartient bien à cette transaction-là. Donc il a fallu mettre en place des règles pour déterminer le degré de probabilité que telle donnée supplémentaire appartienne à telle transaction. Donc le niveau de certitude avec lequel on va travailler pour l’enrichissement de certaines transactions n’est pas toujours de 100 %. (...) En résumé, on a des problèmes de codes qui regroupent trop de choses et on a aussi des problèmes de transactions qui sont complétées avec de l’information qui n’est peut-être pas précise à 100 % » [90]. Enfin, ces multiples difficultés techniques sont accentuées par les manières de faire des banquiers dans les succursales. Nombre de guichetiers et de conseillers financiers entrent manuellement – par méconnaissance, par habitude, par simplicité et/ou par rapidité – des codes transactionnels qui ne correspondent pas forcément aux types d’opérations demandés par leurs clients. Si cette pratique est sans conséquence pour ces derniers et pour la réalisation effective de leurs transactions, ses effets sur la surveillance sont immédiats, avec la production massive de faux positifs et de faux négatifs (situations pour lesquelles une alerte aurait dû être générée). Plus largement, une telle situation illustre les tensions, voire les contradictions des objectifs poursuivis simultanément sur plusieurs fronts : « On essaie toujours de rendre l’expérience client plus facile, plus simple, et on voudrait aussi que les procédures se fassent plus rapidement en posant le moins de questions possibles. Mais tout ça va à l’encontre de ce dont nous avons besoin avec le blanchiment d’argent, c’est-à-dire de collecter le plus d’informations sur les clients pour être capables de les suivre puis de comprendre leurs schémas transactionnels, leurs habitudes » [91].

32Toutes ces difficultés et ces tensions accumulées ont été fortement ressenties au moment des tests en condition réelle des algorithmes de suspicion, avec une production quotidienne d’alertes tellement importante qu’elle est apparue au début comme totalement ingérable [92]. Sur la base de projections relatives à des institutions financières comparables, l’équipe tablait sur quelques centaines d’alertes par jour, mais des milliers ont été finalement déclenchés. Et alors que l’équipe ambitionnait un taux de faux positifs de l’ordre de 80 % à 85 % en moyenne par règle, ce taux de fausses alertes, ou d’alertes « non productives » pour reprendre les termes des enquêtés, a largement dépassé les 95 %, voire approché les 100 % pour certaines règles [93]. Il s’est ensuivi une période soutenue d’expérimentation et de « (re)calibrage » des règles algorithmiques, en jouant notamment sur les pondérations et les seuils de déclenchement des alertes, pour arriver au nombre désiré. Outre les enjeux évoqués de transcodage, d’arrimage des instruments et de qualité des données disponibles, le résultat de ce bricolage incessant dépend également des rapports de force engagés par les dirigeants du département anti-blanchiment, tant du côté finance que du côté sécurité. Du côté sécurité, auprès du service fédéral de renseignement financier, les discussions ont porté sur la possibilité de relever les seuils monétaires associés à certaines règles et à de possibles déclarations de soupçon afin de diminuer le volume d’alertes : « Ce qui a été proposé à Canafe, c’était de dire : “Regardez l’effort que je mets à surveiller ces transactions-là [d’un petit montant] pour des petits vendeurs de drogues qui déposent quelques centaines de dollars, ne serait-il pas mieux de prendre ces gens-là [les analystes] et de les faire travailler sur des alertes avec de grosses affaires ?” Mais comme on a fait des déclarations sur des petits montants par le passé, Canafe ne veut pas qu’on arrête (...), donc, là, il y a un travail de “vente” à faire auprès d’eux » [94]. Du côté finance, auprès de la direction de la banque, les discussions ont porté sur les ressources budgétaires allouées au traitement des alertes. Une fois arrêté le nombre approximatif d’analystes affectés à cette nouvelle tâche, il s’est agi, à rebours, de « vraiment s’assurer qu’on ait le bon nombre d’alertes pour que cela puisse entrer dans le processus avec le nombre de ressources en place » [95]. De ce double rapport de force pesant sur le bricolage des algorithmes ressort l’équilibre de tensions dans lequel se situent ces agents, celui d’en faire assez pour satisfaire les attentes sécuritaires, mais pas plus pour tenir compte des logiques financières. Ni trop ni trop peu, voilà qui semble résumer trente ans de politique internationale contre l’argent sale à l’interface de la finance et de la sécurité, avec ou sans algorithme.

33« Le métier de Guichetier ou Chargé d’accueil consiste à accueillir les clients d’une banque et à assurer les opérations courantes d’un guichet. (...) Ses qualités : parce qu’il est au contact de la clientèle, un Guichetier se doit d’être accueillant, aimable et poli. Réactif et dynamique, il doit être disponible et à l’écoute de ses clients. Un Guichetier doit être capable de répondre de manière rapide et efficace aux exigences de ses clients. Par ailleurs, il doit être capable de faire face à des situations stressantes. La discrétion et la diplomatie sont également des qualités très appréciées [96]. »

34Il est difficile de conclure, à la lecture de cette fiche métier, que le guichetier de la banque du coin de la rue fait formellement partie des street-level bureaucrats de la principale politique publique internationale contre la criminalité et le terrorisme. Le lien apparaît pour le moins ténu entre ce métier et celui animé par la « préoccupation professionnelle de maîtrise de la surveillance et de la coercition à des fins de reproduction de l’ordre » [97]. Et pourtant, lui et ses collègues spécialisés se trouvent de fait dépositaires d’un pouvoir d’État, en se voyant confier la mission d’intervenir en première ligne sur les opérations financières et, par extension, sur les personnes qu’ils suspectent d’être liées à des activités criminelles. Notre objectif a été précisément d’interroger à nouveaux frais cette division sociale du travail de policing impliquant une telle pluralité d’acteurs et d’organisations, du guichetier au policier, de la banque aux services de renseignement intérieur et extérieur.

35Il ne s’agit pas simplement d’abonder dans le sens d’une pluralisation du policing, et encore moins sous l’angle unique d’une imbrication croissante des logiques publiques et privées en matière de production de sécurité. Les banques ne sont pas forcément privées et, quand elles le sont, les réduire à cette seule dimension ou à celle d’organismes à but lucratif masque l’essentiel, à savoir qu’elles ne sont pas des entreprises de sécurité privée au même titre que Securitas ou G4S. En tant que prestataires de services financiers, elles occupent d’abord et avant tout des positions dans des champs et des sous-champs dont la logique et les enjeux diffèrent fortement de ceux de ces prestataires de services de sécurité, sans même évoquer les services de l’État en matière de police, de justice et de renseignement. À l’instar de configurations récentes concernant d’autres acteurs majeurs du capitalisme contemporain, l’exercice du policing est ici conditionné à l’existence de relations – objectives et effectives – entre des univers de pratiques et de rationalités différenciés, économiques et financières d’un côté, pénales et sécuritaires de l’autre. Et ces relations socialement structurées le sont aussi techniquement, à l’heure où les algorithmes sont assimilés à une nouvelle figure du pouvoir et s’imposent comme une dimension incontournable du policing. En tant qu’objets-frontières, ils constituent un point d’entrée pertinent pour analyser les zones de contacts et d’interactions au cœur du policing financier, et ainsi rendre compte de ses effets, tant sur les univers sociaux mis à contribution que sur l’action publique contre l’argent sale et la criminalité dans son ensemble.

36L’imposition de principes hétéronomes au sein de l’industrie bancaire a des conséquences notables sur son fonctionnement et ses membres qui, pour continuer de faire affaire, doivent formellement être les yeux et les oreilles de l’État sécuritaire. Le recours aux machines soupçonnantes participe de la prise en compte et de l’intériorisation de ces principes de sécurité dans l’univers financier. Cela ne témoigne pas pour autant d’une indifférenciation des logiques – financières et sécuritaires – à l’œuvre, avec une mise en algorithmes des opérations de surveillance sous-tendue par des mécanismes, des instruments et des objectifs toujours en tension et rarement complémentaires. Il en ressort une politique du « ni trop ni trop peu » qui, si elle donne lieu à une surveillance automatisée, constante et généralisée, apparaît autant éloignée des ambitions répressives affichées que des visions dystopiques associées aux big data.


Date de mise en ligne : 07/09/2021

https://doi.org/10.3917/crii.092.0026

Notes

  • [1]
    Franck Petiteville, Andy Smith, « Analyser les politiques publiques internationales », Revue française de science politique, 56 (3), 2006, p. 357-366.
  • [2]
    Jason Sharman, The Money Laundry : Regulating Criminal Finance in the Global Economy, Ithaca, Cornell University Press, 2011 ; Mark Nance, « The Regime that FATF Built : An Introduction to the Financial Action Task Force », Crime, Law and Social Change, 69 (2), 2018, p. 109-129.
  • [3]
    Gafi, Qui sommes-nous ?, Paris, 2021 (https://www.fatf-gafi.org/fr/aproposdugafi/).
  • [4]
  • [5]
    Gafi, Normes internationales sur la lutte contre le blanchiment de capitaux et le financement du terrorisme et de la prolifération. Les recommandations du Gafi, Paris, 2020.
  • [6]
    Gafi, Financial Action Task Force – Thirty Years, Paris, 2019, p. 4-5.
  • [7]
    Anthony Amicelle, « Policing through Misunderstanding : Insights from the Configuration of Financial Policing », Crime, Law and Social Change, 69 (2), 2018, p. 207-226.
  • [8]
    Benjamin Bowling, Rober Reiner, James Sheptycki, The Politics of the Police, Oxford, Oxford University Press, 2019, p. 5.
  • [9]
    Robert T. Naylor, « Wash-out : A Critique of Follow-the-money Methods in Crime Control Policy », Crime, Law and Social Change, 32, 1999, p. 1-58.
  • [10]
    B. Bowling, R. Reiner, J. Sheptycki, The Politics of the Police, op. cit., p. xiii.
  • [11]
    Fabien Jobard, Jacques de Maillard, Sociologie de la police. Politiques, organisations, réformes, Paris, Armand Colin, 2015.
  • [12]
    Gilles Favarel-Garrigues, Laurent Gayer (dir.), « Justiciers hors-la-loi », Politix, 29 (115), 2016 ; Laurent Fourchard, « Le vigilantisme contemporain. Violence et légitimité d’une activité policière bon marché », Critique internationale, 78 (1), 2018, p. 169-186.
  • [13]
    Ian Loader, « Plural Policing and Democratic Governance », Social & Legal Studies, 9 (3), 2000, p. 323-345 ; Adam Crawford, « Networked Governance and the Post-regulatory State ? Steering, Rowing and Anchoring the Provision of Policing and Security », Theoretical Criminology, 10 (4), 2006, p. 449-479 ; Trevor Jones, Tim Newburn (eds), Plural Policing : A Comparative Perspective, Londres, Routledge, 2006 ; Dominique Boels, Antoinette Verhage, « Plural Policing : A State-of-the-Art Review », Policing : An International Journal of Police Strategies and Management, 39 (1), 2016, p. 2-18.
  • [14]
    Martin Nokleberg, « Examining the How of Plural Policing : Moving from Normative Debate to Empirical Enquiry », The British Journal of Criminology, 60 (3), 2020, p. 681-702 ; Jacques de Maillard, Mathieu Zagrodzki, « Plural Policing in Paris : Variations and Pitfalls of Cooperation between National and Municipal Police Forces », Policing and Society, 27 (1), 2017, p. 54-67.
  • [15]
    Anthony Amicelle, Karine Côté-Boucher, Benoît Dupont, Massimiliano Mulone, Clifford Shearing, Samuel Tanner (eds), The Policing of Flows. Challenging Contemporary Criminology, New York, Routledge, 2019.
  • [16]
    Gafi, Financial Action Task Force – Thirty Years, op. cit., p. 43.
  • [17]
    Olly Owen, « Maintenir l’ordre au Nigeria : vers une histoire de la souveraineté de l’État », Politique africaine, 128, 2012, p. 25.
  • [18]
    Ibid.
  • [19]
    Gafi, Normes internationales sur la lutte contre le blanchiment de capitaux et le financement du terrorisme et de la prolifération. Les recommandations du Gafi, op. cit.
  • [20]
    A. Amicelle, « Naissance d’une agence de renseignement : droits d’entrée dans les univers de la finance et de la sécurité », Cultures & Conflits, 114-115, 2019, p. 171-197.
  • [21]
    Gafi, Financial Action Task Force – Thirty Years, op. cit., p. 4.
  • [22]
    Sur cette perspective, voir l’introduction à ce dossier, Sylvain Antichan, Cyril Magnon-pujo, « Les espaces sociaux du gouvernement international de la violence », Critique internationale, 92 (3), 2021, p. 9-22.
  • [23]
    Vincent Dubois, « L’action de l’État, produit et enjeu des rapports entre espaces sociaux », Actes de la recherche en sciences sociales, 201-202 (1-2), 2014, p. 11-25.
  • [24]
    Louise Amoore, Rita Raley, « Securing with Algorithms : Knowledge, Decision, Sovereignty », Security Dialogue, 48 (1), 2017, p. 3-10.
  • [25]
    Bilel Benbouzid, « Quand prédire, c’est gérer. La police prédictive aux États-Unis, Réseaux, 211 (5), 2018, p. 221-256.
  • [26]
    Sarah Brayne, Angèle Christin, « Technologies of Crime Prediction : The Reception of Algorithms in Policing and Criminal Courts », Social Problems, 2020, p. 1-17.
  • [27]
    Janet Chan, Lyria Bennett Moses, « Making Sense of Big Data for Security », The British Journal of Criminology, 57 (2), 2017, p. 299-319.
  • [28]
    Anthony Amicelle, David Grondin, « Algorithms as Suspecting Machines : Financial Surveillance for Security Intelligence », dans David Lyon, David Murakami Wood (eds), Big Data Surveillance and Security Intelligence : The Canadian Case, Vancouver, University of British Columbia Press, 2021, p. 68-87.
  • [29]
    Gilles Favarel-Garrigues, Thierry Godefroy, Pierre Lascoumes, Les sentinelles de l’argent sale : les banques aux prises avec l’antiblanchiment, Paris, La Découverte, 2009.
  • [30]
    Cécile Méadel, Guillaume Sire, « Les sciences sociales orientées programmes. État des lieux et perspectives », Réseaux, 206 (6), 2017, p. 27.
  • [31]
    Anthony Amicelle, Vanessa Iafolla, « Suspicion-in-the-making : Surveillance and Denunciation in Financial Policing », The British Journal of Criminology, 58 (4), 2018, p. 845-863.
  • [32]
    ACAMS, « Best Practices to Successfully Implement an AML Monitoring System », ACAMS Today, 17 (1), 2018, p. 23-25.
  • [33]
    G. Favarel-Garrigues, T. Godefroy, P. Lascoumes, « Les porteurs discrets de la surveillance financière », Critique internationale, 48 (3), 2010, p. 77-95.
  • [34]
    Dominique Cardon, « Le pouvoir des algorithmes », Pouvoirs, 164 (1), 2018, p. 63-73.
  • [35]
    Solon Barocas, Alex Rosenblat, Danah Boyd, Seeta Peña Gangadharan, Corrine Yu, Data & Civil Rights : Technology Primer, Data & Society Research Institute, 2014 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2536579).
  • [36]
    D. Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Le Seuil, 2015, p. 7.
  • [37]
    Claudia Aradau, Tobias Blanke, « Politics of Prediction : Security and the Time/space of Governmentality in the Age of Big Data », European Journal of Social Theory, 20 (3), 2017, p. 373-391 ; A. Christin, « Algorithms in Practice : Comparing Web Journalism and Criminal Justice », Big Data & Society, 4 (2), 2017, p. 1-14 ; Mareile Kaufmann, Simon Egbert, Matthias Leese, « Predictive Policing and the Politics of Patterns », The British Journal of Criminology, 59 (3), 2019, p. 674-692.
  • [38]
    Gafi, Financial Action Task Force – Thirty Years, op. cit., p. 37.
  • [39]
    Transcription du discours de clôture du président de la République, Emmanuel Macron, à la conférence contre le financement du terrorisme « No Money for Terror », 2018 (https://www.elysee.fr/front/pdf/elyseemodule-1867-fr.pdf).
  • [40]
    B. Benbouzid, D. Cardon, « Machine à prédire », Réseaux, 211 (5), 2018, p. 9-33.
  • [41]
    A. Amicelle, D. Grondin, « Algorithms as Suspecting Machines : Financial Surveillance for Security Intelligence », cité.
  • [42]
    A. Amicelle, V. Iafolla, « Suspicion-in-the-making : Surveillance and Denunciation in Financial Policing », art. cité.
  • [43]
    Didier Bigo (dir.), « Suspicion et exception », Cultures & Conflits, 58, 2005.
  • [44]
    Entretien 7, avec le directeur du département anti-blanchiment et l’un de ses adjoints, 2018.
  • [45]
    Entretien 8, avec un agent de Canafe (Centre d’analyse des opérations et déclarations financières du Canada, Fintrac en anglais), service fédéral de renseignement financier, également régulateur financier, Montréal, 2015.
  • [46]
    Danah Boyd, Kate Crawford, « Critical Questions for Big Data. Provocations for Cultural, Technological, and Scholarly Phenomenon », Information, Communication & Society, 15 (5), 2012, p. 662-679.
  • [47]
    A. Christin, « Algorithms in Practice : Comparing Web Journalism and Criminal Justice », art. cité, p. 3 ; S. Brayne, A. Christin, « Technologies of Crime Prediction : The Reception of Algorithms in Policing and Criminal Courts », art. cité, p. 8.
  • [48]
    Entretien 1, avec le responsable des projets internes de la banque en matière d’anti-blanchiment, 2018.
  • [49]
    Marc Lenglet, « Ambivalence and Ambiguity : The Interpretative Role of Compliance Officers », dans Isabelle Huault, Christelle Richard (eds), Finance : The Discreet Regulator. How Financial Activities Shape and Transform the World, New York, Palgrave Macmillan, 2012.
  • [50]
    Document interne 1, p. 14.
  • [51]
    A. Christin, « Algorithms in Practice : Comparing Web Journalism and Criminal Justice », art. cité ; Frank Pasquale, The Black Box Society : The Secret Algorithms that Control Money and Information, Cambridge, Harvard University Press, 2015 ; Carrie B. Sanders, James Sheptycki, « Policing, Crime and “Big Data” ; Towards a Critique of the Moral Economy of Stochastic Governance », Crime, Law and Social Change, 68, 2017, p. 1-15.
  • [52]
    Entretien 6, avec le chef de l’équipe chargée de statuer sur les alertes automatisées de soupçon, 2018.
  • [53]
    Entretien 1, avec le responsable des projets internes de la banque en matière d’anti-blanchiment, 2018.
  • [54]
    Entretien 7, avec le directeur du département anti-blanchiment et l’un de ses adjoints, 2018.
  • [55]
    Ibid.
  • [56]
    Gafi, Normes internationales sur la lutte contre le blanchiment de capitaux et le financement du terrorisme et de la prolifération. Les recommandations du Gafi, op. cit.
  • [57]
    Danielle Keats Citron, Frank A. Pasquale, « The Scored Society : Due Process for Automated Predictions », Washington Law Review, 89 (1), 2014, p. 1-33.
  • [58]
    Kelly Hannah-Moffat, « Algorithmic Risk Governance : Big Data Analytics, Race and Information Activism in Criminal Justice Debates », Theoretical Criminology, 23 (4), 2018, p. 453-470 ; S. Brayne, A. Christin, « Technologies of Crime Prediction : The Reception of Algorithms in Policing and Criminal Courts », art. cité.
  • [59]
    Document interne 1, en prévision de l’implantation des algorithmes de suspicion.
  • [60]
    Fintrac, Guide de l’approche axée sur les risques pour lutter contre le blanchiment d’argent et le financement des activités terroristes, Ottawa, 2017.
  • [61]
    Fintrac, Indicateurs de blanchiment d’argent et de financement du terrorisme – Entités financières, Ottawa, 2019 (https://www.fintrac-canafe.gc.ca/guidance-directives/transaction-operation/indicators-indicateurs/fin_mltf-fra).
  • [62]
    Ibid.
  • [63]
    Ibid.
  • [64]
    Fintrac, Comment déterminer si des opérations financières sont douteuses ?, Ottawa, 2020.
  • [65]
    Entretien 1, avec le responsable des projets internes de la banque en matière d’anti-blanchiment, 2018.
  • [66]
    Geoffrey P. Alpert, John M. MacDonald, Roger G. Dunham, « Police Suspicion and Discretionary Decision Making during Citizen Stops », Criminology, 43 (2), 2005, p. 407-434 ; Fabien Jobard, René Lévy, John Lamberth, Sophie Névanen, « Mesurer les discriminations selon l’apparence : une analyse des contrôles d’identité à Paris », Population, 67 (3), 2012, p. 423-451.
  • [67]
    Entretien avec un représentant de Fintrac/Canafe, anciennement agent de conformité anti-blanchiment dans plusieurs institutions financières, Toronto, 2016.
  • [68]
    Fintrac, Indicateurs de blanchiment d’argent et de financement du terrorisme – Entités financières, op. cit.
  • [69]
    John Dewey, Logic : The Theory of Inquiry, New York, Holt, 1938.
  • [70]
    Document interne 1, sur les objectifs opérationnels affichés et les bénéfices escomptés.
  • [71]
    B. Benbouzid, D. Cardon, « Machine à prédire », art. cité.
  • [72]
    Jean-Sébastien Vayre, « Comment décrire les technologies d’apprentissage artificiel ? Le cas des machines à prédire », Réseaux, 211 (5), 2018, p. 69-104.
  • [73]
    Daniel Neyland, The Everyday Life of an Algorithm, New York, Palgrave Macmillan, 2019.
  • [74]
    Ibid., p. 32.
  • [75]
    Entretien 1, avec le responsable des projets internes de la banque en matière d’anti-blanchiment, 2018.
  • [76]
    Entretien 4, avec le responsable informatique de la banque pour le projet d’implantation, 2018.
  • [77]
    Entretien 6, avec le chef de l’équipe chargée de statuer sur les alertes automatisées de soupçon, 2018.
  • [78]
    J.-S. Vayre, « Comment décrire les technologies d’apprentissage artificiel ? Le cas des machines à prédire », art. cité, p. 85.
  • [79]
    Document interne 3.
  • [80]
    Ibid.
  • [81]
    Dominique Boullier, Sociologie du numérique, Paris, Armand Colin, 2016 ; J.-S. Vayre, « Comment décrire les technologies d’apprentissage artificiel ? Le cas des machines à prédire », art. cité.
  • [82]
    F. Pasquale, The Black Box Society : The Secret Algorithms that Control Money and Information, op. cit.
  • [83]
    Donald MacKenzie, « A Sociology of Algorithms : High-Frequency Trading and the Shaping of Markets », juin 2014 (https://uberty.org/wp-content/uploads/2015/11/mackenzie-algorithms.pdf).
  • [84]
    Ann-Christina Lange, Marc Lenglet, Robert Seyfert, « On Studying Algorithms Ethnographically : Making Sense of Objects of Ignorance », Organization, 26 (4), 2018, p. 598-617.
  • [85]
    D. Neyland, The Everyday Life of an Algorithm, op. cit., p. 45-46, p. 49-50.
  • [86]
    Un des documents préparatoires internes.
  • [87]
    Entretien 4, avec le responsable informatique de la banque pour le projet d’implantation, 2018.
  • [88]
    Entretien 3, avec un des membres du projet d’implantation chargé du paramétrage des algorithmes, 2018.
  • [89]
    P. Lascoumes, « Rendre gouvernable : de la “traduction” au “transcodage” : l’analyse des processus de changement dans les réseaux d’action publique », dans CURAPP, La gouvernabilité, Paris, PUF, 1996, p. 334-335.
  • [90]
    Entretien 1, avec le responsable des projets internes de la banque en matière d’anti-blanchiment, 2018.
  • [91]
    Entretien 5, avec un des analystes d’affaires du projet d’implantation, 2018.
  • [92]
    Pour une situation comparable, voir D. Neyland, The Everyday Life of an Algorithm, op. cit.
  • [93]
    Une alerte est qualifiée de productive si l’analyste chargé de la traiter conclut qu’il ne s’agit pas d’une erreur manifeste mais d’un cas suffisamment sérieux pour être investigué plus avant par un analyste de niveau 2 en vue d’une éventuelle déclaration de soupçon.
  • [94]
    Entretien 3, avec un des membres du projet d’implantation chargé du paramétrage des algorithmes, 2018.
  • [95]
    Ibid.
  • [96]
  • [97]
    J. Sheptycki, « The Police Intelligence Division-of-Labour », dans Benoît Dupont, Chad Whelan, Peter K. Manning (eds), Policing across Organisational Boundaries. Developments in Theory and Practice, New York, Routledge, 2020, p. 39.

Domaines

Sciences Humaines et Sociales

Sciences, techniques et médecine

Droit et Administration

bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Retrouvez Cairn.info sur

Avec le soutien de

18.97.14.87

Accès institutions

Rechercher

Toutes les institutions