Notes
-
[1]
Steven Shapin, Simon Schaffer, Leviathan and the Air-Pump: Hobbes, Boyle, and the Experimental Life, Princeton University Press, 1985 ; Bruno Latour, Steve Woolgar, La vie de laboratoire, Paris, La Découverte, 1988.
-
[2]
Jérôme Denis, Le travail invisible des données, Presse des Mines, 2018, p. 33.
-
[3]
Susan L. Star, “The ethnography of Infrastructure”, American Behavioral Scientist, vol. 43 (3), 1999, p. 377-391, cité par Jérôme Denis, Le travail invisible des données, p. 45.
-
[4]
Antonio Casilli, En attendant les robots, enquête sur le travail du clic, Paris, Éd. du Seuil, 2019.
-
[5]
Jérôme Denis, Le travail invisible des données, p. 97.
-
[6]
Le back office, souvent traduit par « service d’appui », représente l’ensemble des activités d’administration, de contrôle et d’aide d’une entreprise (facturation, paye, informatique, relation téléphonique…) qui peuvent être séparées du reste de l’entreprise (délocalisées ou externalisées) (NDLR).
-
[7]
Evgeny Morozov, Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique, FYP, 2014.
-
[8]
Jérôme Denis, Le travail invisible des données, p. 153 : l’économiste Rufus Pollock et son slogan “give us the data raw, give us the data now”, ou Tim Berners-Lee, co-inventeur d’Internet “We want data raw”.
-
[9]
Le développement des services en ligne (NDLR).
-
[10]
Jérôme Denis, Le travail invisible des données, p. 178.
-
[11]
Qui s’est vu décerné en 2017 le prix Nobel d’économie pour ces travaux.
-
[12]
Richard H. Thaler, Cass R. Sunstein, Nudge: Improving Decisions About Health, Wealth and Happiness, Yale University Press, 2008.
-
[13]
En 2008, le Premier ministre britannique David Cameron avait intégré une “Nudge unit” dans son cabinet, suivant l’exemple de Barack Obama.
- [14]
-
[15]
La détermination des caractéristiques des personnes (profilage) et leur cartographie (NDLR).
-
[16]
Karen Yeun, “‘Hypernudge’: Big Data as a mode of regulation by design”, Information, Communication & Society, Vol. 20, 2017, Issue 1: The Social Power of Algorithms.
https://www.tandfonline.com/doi/full/10.1080/1369118X.2016.1186713. -
[17]
Voir l’excellent document Get me Roger Stone, de Dylan Bank et Daniel DiMauro, 2017. https://www.youtube.com/watch?v=5IPyv4KgTAA.
-
[18]
Isaac Newton : « Dans tous les cas, la marche de la Nature est donc très simple et toujours conforme à elle-même : puisqu’elle produit tous les grands mouvements des corps célestes, par la gravitation ou l’attraction réciproque de ces corps ; et presque tous les petits mouvements des particules des corps, par d’autres forces attractives et répulsives, réciproques entre ces particules », Optique de Newton, vol 2, Paris, Leroy, 1787, p. 267-268 ; Albert Einstein : « c’est-à-dire la théorie de tous les phénomènes de la nature, y compris ceux de la vie », Comment je vois le monde, Paris, Flammarion, 1958, p. 141.
-
[19]
Pablo Jensen, Pourquoi la société ne se laisse pas mettre en équations, Éd. du Seuil, mars 2018.
-
[20]
Par exemple le rapport entre croissance et emploi qui peut sembler intuitif, se révèle sur le long terme comme un phénomène incertain de corrélation qui empêche une prévision et une planification fiable.
1Big data, open data, raw data, data driven… Le terme de « données » est omniprésent dans les débats sur l’intelligence artificielle, dont la masse toujours plus grande est nécessaire à « l’entraînement » des divers systèmes d’apprentissage automatisés. Nous questionnerons ici la fausse évidence que le terme apparemment neutre de « données » semble recouvrir. Une des principales difficultés pour prendre la mesure des effets des technologies numériques réside dans l’extrême difficulté de définir ce concept de « donnée » qui induit une sorte de dimension naturelle au détriment des processus et des acteurs, souvent cachés et effacés, qui lui ont donné naissance et la gouvernent. Sur le plan opérationnel et social, la convergence entre le big data et l’intelligence artificielle donne lieu à une recherche de la modélisation des comportements individuels et collectifs et à leur management automatisé. Nous évoquerons ici la théorie du nudge qui a concrétisé au cours des années 2010 cette convergence entre données, algorithmes apprenants et objectifs politico-sociaux. Enfin, nous critiquerons l’absolutisation du principe de réductionnisme à la base de la philosophie de l’intelligence artificielle, qui pousse à ne considérer comme existant que ce qui est constitué par une substance matérielle, des occurrences physiques ou des « données » mesurables.
Science, technique et inscriptions
2Au quotidien, il existe une relation extrêmement forte entre la production scientifique et technique et le travail de l’écrit sous des formes très variées. L’intérêt pour le travail de l’écrit au sein des lieux de production scientifique et technique a renouvelé son approche dans les années 1980. Une véritable ethnographie du travail liée à la production de la science et de la technique nous semble être utile pour éclairer le mystère qui entoure le concept de « donnée ».
3Dans le sillage de Derrida, ces travaux [1] ont permis de déplacer l’attention au seul contenu sémantique pour éclairer aussi la dimension active et matérielle de leur production. Ainsi, les textes issus de la démarche scientifique et technique ne sont pas à concevoir comme de simples canaux neutres et transparents mais comme participant par leur composition, leur organisation, et leur forme à l’élaboration de la connaissance.
4La question essentielle, parfaitement centrale concernant aussi le concept de donnée dans le monde numérique, consiste à savoir par quelles modalités d’inscriptions les scientifiques travaillent à représenter le réel. Pour résumer : on ne peut séparer aucune connaissance, même réduite à la dimension unitaire de la « donnée », sans s’intéresser symétriquement à la dimension matérielle qui a permis son inscription. Notamment en ce qui concerne les processus de visualisation des données censés rendre visible des phénomènes partant d’un terrain « naturel », dont la réalité est progressivement traduite en inscriptions interprétables et visualisables, soit par un texte écrit et/ou une représentation graphique (carte, schéma, tableau…). Les données dans le champ scientifique ont des propriétés « scripturales » qui les font tenir ensemble et assurent leur circulation [2].
5Si on étend la notion de texte vers celle plus large « d’inscription » graphique (traces, graphes, nombres enregistrés, points…), on doit aussi s’intéresser non plus seulement aux auteurs humains de textes scientifiques, chercheurs ou techniciens, mais aussi à l’ensemble des instruments « inscripteurs » qui participent à l’épaisseur de la description du réel. Au sein d’un laboratoire, du capteur qui enregistrera une variable jusqu’à la publication d’un article dans une revue scientifique ou le résultat d’un algorithme, il s’agit toujours d’une vaste chaîne de lecture et d’inscription. Tout comme aujourd’hui avec la donnée du monde numérique, il faut pouvoir suivre « à la trace » la longue construction scripturale pour comprendre l’importance du rôle de l’écrit, son processus et les savoir-faire nécessaires à son apparition.
6À l’instar des enseignements des Science and Technology Studies, depuis les années 1980, il faut absolument prendre conscience que le monde numérique est avant tout, et peut être davantage même que le contexte du laboratoire, un environnement scriptural peuplé d’instruments inscripteurs (sensors et devices omniprésents) coordonnés par d’immenses champs scripturaux (algorithmes, scripts, code et protocoles). Aujourd’hui, l’invisibilité de ces dynamiques et le gigantesque effet de « boîte noire » qu’elles produisent contaminent l’ensemble de la société et commencent à produire à grande échelle des effets nocifs sur la confiance des publics envers ces dispositifs envahissants.
Les travailleurs de la donnée
7L’observation de l’activité de laboratoire par les ethnologues a mis en évidence une autre dimension essentielle pour notre propos : celle du travail et des savoir-faire invisibles et effacés nécessaires aux vastes entreprises d’inscription, de mise en ordre et de traduction du réel. Pour passer d’une inscription à une autre, il est essentiel d’explorer toutes ces tâches « qui ne comptent pas » et qui produisent tout un peuple de travailleurs de la donnée dans le but de « faire remonter à la surface [3] » l’action de ces « petites mains » sur la « paperasse ».
8Les racines positivistes et réductionnistes de l’ère numérique plongent dans la généralisation, dès 1840, de la communication écrite omniprésente, normalisée et mécanisée, des bureaucraties naissantes. À la charnière des xixe et xxe siècles, institutions publiques et entreprises se dotent de vastes technologies et d’infrastructures scripturales. Puis, comme l’ont été les administrations publiques avec l’élaboration de systèmes de statistique publiques sur les populations, les entreprises ont accompli leur révolution managériale en repensant le marché à son tour doté d’un arsenal de technologies scripturales censé le mesurer, le calculer et l’ordonner. Avant même l’ère numérique, la donnée est devenue une commodité pour le secteur public et les entreprises comme matière centrale de la coordination des échanges.
9À ce stade de notre propos, il faut évoquer la dimension politique de ces processus scripturaux en s’intéressant à la valeur conférée aux différentes étapes de la production de données. La normalisation mécaniste de la production des écrits et des données au sein des organisations bureaucratiques est ordonnée au principe politique d’efficacité. Cette valeur conduit, souvent de manière imperceptible, à déconsidérer le travail et les travailleurs des données au profit des dispositifs de calcul algorithmique et des machines. Tel est magistralement le cas des discours et représentations du secteur de l’intelligence artificielle qui obèrent presque totalement l’énorme travail réalisé par les « dresseurs » d’intelligence artificielle et les tâches de micro-travail et de tuning (réglage) exécutées par des travailleurs de l’ombre [4]. En effet, au cœur des dispositifs qui peuvent apparaître comme les plus autonomes, il existe toujours dans les marges et les interstices des réseaux une part de travail humain indispensable à la maintenance des machines, à la production et à la circulation des données.
10De nombreux cas montrent en effet que si produire une masse de données paraît simple, automatique et « sans pensée » ni valeur, dès qu’on s’en approche, « il révèle une épaisseur et une complexité qui méritent toute notre attention [5] ». Ces travailleurs des données, dont chacun fait peu ou prou partie dès lors qu’il alimente ne serait-ce qu’un moteur de recherche en requêtes, participent à une vaste « back offisation » du monde [6]. Ces micro-tâches coordonnées par des plateformes à tendance monopolistique esquissent un post-capitalisme envers lequel même la souveraineté étatique aura, a déjà (?), toutes les peines à contrebalancer les violentes externalités sociales négatives.
Un nouveau type de donnée : la « donnée brute »
11Parmi les nombreuses déclinaisons du concept de donnée, celle de « donnée brute » doit retenir ici toute notre attention en raison du fait que le statut historique des données a changé à la mesure de leur omniprésence dans le discours sur les technologies numériques. La libération massive et l’accélération de la circulation des données deviennent le synonyme évident de transparence, d’innovation, de démocratie ou encore d’efficacité au point de constituer la pointe du vaste mouvement de « solutionnisme [7] », caractéristique des discours et des agendas de l’ère numérique.
12Dans ce mouvement technophile global, un terme retient notamment l’attention car il se situe aux confins des aspirations positivistes des chantres des systèmes dits ouverts et du logiciel libre et de la vertu bureaucratique de la transparence, de l’accès à l’information et de « l’accountability » anglo-saxonne : il s’agit de celui d’open data et son corollaire la donnée dite brute ou « non modifiée ».
13Ce type inédit d’entité informationnelle, apparue en 2007 lors de la rencontre de Sébastopol qui a forgé les principes fondateurs de l’open data et reprise depuis par les ténors de la transformation numérique [8], contribuera à forger les « données brutes » comme une nouvelle catégorie informationnelle. Il ne s’agit pas de dossiers constitués par la bureaucratie administrative, ni de statistiques mais d’une information que se situe en deçà et avant les catégories usuelles, sans plus de définition. Il s’agirait d’un matériau « déjà là » et préexistant à un traitement scriptural qu’il serait évident et aisé de « libérer ». Cette véritable théorie de l’information heurte bien sûr ce que nous avons précédemment souligné, à savoir la portée réelle et matérielle de la production, du traitement et de la circulation des données.
14Ce concept de « donnée brute » vise à dématérialiser le concept de donnée, voire à la naturaliser en lui conférant le statut d’une matière première ou d’une commodité. Or, cette idéologie néopositiviste ne résiste pas à la mise à l’épreuve en situation et contribue selon nous à essentialiser la donnée numérique en particulier sans mesurer la dimension politique de sa « fabrication » sociale au sens positif et collectif du terme. Ce faisant, cette conception, selon nous erronée du concept de donnée, entraîne des conséquences importantes quand elle laisse entendre au public que les lacunes constatées à l’usage dans les données administratives soi-disant « brutes » sont suspectées d’alimenter une opposition binaire entre secret et transparence. En effet, la donnée parfaite, immanente et naturelle recherchée par les programmes de « plateformisation [9] » de l’action publique n’existe pas et se heurte à la réalité des mécanismes discrets et complexes de sa fabrication. Il faut ainsi abandonner « toute position réaliste et admettre que les données ne sont pas des entités informationnelles déjà disponibles qu’il suffirait de faire circuler (ou de « libérer »), mais le résultat provisoire d’un délicat processus de génération. Admettre que les données, comme l’écrit Latour […] sont toujours des “obtenues” [10] ».
Le Nudge et les architectes du choix
15Inciter les individus à modifier leur comportement individuel ou collectif tout en optimisant le rapport coût (financier ou politique) / efficacité est l’objectif ultime de tout gouvernement des hommes. Qu’il s’agisse de la puissance publique, qui dans le cadre d’une vision biopolitique, se mobilise pour protéger et développer sa population (politique de santé, sécurité au sens large, écologie…) ou d’une entreprise dont la quête d’efficacité managériale, productive ou commerciale est la raison d’être, les organisations humaines cherchent toutes le fameux « changement » progressiste.
16Cette quête consistait jusqu’à récemment à concevoir diverses méthodes d’incitation descendante toujours limitées par le risque d’un excès de répression ou d’autoritarisme coûteux et contre-productif, un cycle d’effet allongé (entre décision, mise en œuvre et mesure des effets) ou encore une efficacité limitée dans le temps et l’espace.
17Or, depuis une dizaine d’années, le croisement du travail des données évoqué précédemment, la psychologie sociale, le management et la plateformisation numérique des relations sociales ont accouché d’une théorie générale de l’influence douce connue désormais sous le terme de nudge. Combinée aux progrès de l’intelligence artificielle et aux enjeux sociopolitiques récents (terrorisme ou pandémie), la théorie du nudge semble offrir de sombres perspectives par sa capacité à élaborer des architectures de choix collectif bien éloignées de l’idéal de la liberté démocratique.
Inciter ou discipliner avec douceur ?
18L’ouvrage fondateur de ce courant, écrit par Richard Thaler [11] et Cass Sunstein, a été publié en 2008 [12]. L’étymologie du terme anglais de nudge est utile à souligner. Il désigne le fait de pousser du coude pour attirer l’attention d’un voisin ou d’encourager à la manière de l’expression française du « coup de pouce ».
19Dans l’introduction de leur livre, les auteurs expliquent que l’économisme et sa représentation rationaliste du consommateur sont pure fiction. L’observation de nombreuses réalités sociales dysfonctionnelles – obésité, endettement, absence de couverture sociale, exemples cités par les auteurs sur lesquels nous reviendrons – souligne au contraire l’échec d’une représentation idéale du comportement humain agissant avec raison. L’homo economicus – une « écone » selon l’astucieux néologisme de Thaler et Sunstein – commet au quotidien des erreurs de jugement, révèle des raisonnements erronés et multiplie les biais. Deux ressorts comportementaux vont définir la puissance du nudge : celui de l’inertie et de la possibilité de s’y appuyer pour designer (concevoir) une architecture du choix. Par exemple, dans une cantine en « self service », il est très facile d’orienter le choix dans un sens ou un autre par une simple disposition spatiale des aliments.
20Cette simple méthode d’incitation par l’architecture des choix, comme l’achalandage pratiqué depuis l’aube des échanges commerciaux, peut changer brutalement d’échelle avec la plateformisation englobante des échanges à l’ère numérique, du big data et de l’intelligence artificielle. Très rapidement, la théorie du nudge a été explorée à des fins de politique publique dès la fin des années 2010 [13]. Dans le monde politique américain et britannique fortement dépolitisé et libéral, la théorie du nudge laissait entrevoir sur le plan théorique une sorte de troisième voie entre interventionnisme étatique et ultralibéralisme. Sur des sujets de santé publique et de surendettement, les chantres du nudging pensaient avoir trouvé une solution pour agir sur des comportements jugés anti-sociaux tout en préservant le non-interventionnisme étatique. La politique du « laisser choisir » a toujours prévalu dans les politiques publiques anglo-saxonnes. L’hypothèse de cette politique libérale consiste à postuler que chacun, comme entrepreneur de lui-même, est capable de prendre toujours la bonne décision, mue par la défense et le calcul de son intérêt individuel. L’autre présupposé du « laisser choisir » consistait à rejeter toute forme de coercition conformément à la doctrine libérale dont l’objectif est de limiter autant que possible le pouvoir de l’État dans les existences individuelles.
21Thaler et Sunstein vont s’élever contre ces deux présupposés mais dans une direction originale : pour eux, il faut prendre acte de la faillibilité des individus et considérer au contraire que face à la complexité du système de choix des polices d’assurance maladie américaines par exemple, une aide est indispensable pour décoder les offres commerciales. D’autre part, ce paternalisme étatique n’est pas synonyme de coercition : un usage habile de l’architecture du choix, le design des interfaces et l’optimisation du traitement des données peuvent rendre imperceptible par l’usager, et non moins efficace, l’orientation extérieure sur ces choix. Thaler et Sunstein forgent ainsi un oxymore presque orwellien : le « paternalisme libertaire ».
22Ces architectures du choix qui souhaitent ni plus ni moins apporter des jours meilleurs aux usagers des services publics à leur insu sont naturellement sous-tendues par une vision éminemment politique des rapports sociaux. Il est ainsi symptomatique que les principaux domaines d’application du nudge (obésité, surendettement, défaut de couverture sociale) soient les stigmates caractéristiques de la pauvreté. En faisant l’hypothèse d’une origine exclusivement comportementale de ces traits sociaux négatifs, les auteurs effacent intégralement la dimension pourtant essentiellement sociale et politique de ces inégalités. Jamais dans leur ouvrage et cette approche ne sont envisagées ces questions – et leur remède – sous la forme de la responsabilité politique collective.
23Si le succès du nudge à la fin des années 2010 fut lié d’une part au contexte conservateur de David Cameron et la question de la santé publique sous Obama, son couplage avec celui du Data turn et de l’intelligence artificielle dessine de vastes conséquences dans les politiques globalisées d’architecture du choix notamment des plateformes et acteurs du numérique qui visent délibérément à atteindre ou conforter une position de monopole dans le domaine du traitement de l’information.
« Big brother is nudging you! »
24Naturellement s’il s’agit d’orienter le choix des élèves à la cantine pour une alimentation plus équilibrée, réduire la vitesse sur les routes avec des radars automatiques non verbalisants mais affichant des smileys ou encore inciter les administrés à ne pas oublier de renouveler leur police d’assurance, tout le monde est d’accord pour adopter la généralisation de cette méthode d’architecture du choix et ce « paternalisme libertaire ».
25Mais, l’enfer étant pavé de bonnes intentions, nous retiendrons ici simplement deux exemples assez bien documentés des usages éthiquement contestables de ces techniques de neuro-ingénierie sociale.
26Une des applications les plus prometteuses du nudge concerne le domaine de la relation entre homme et robot, comme prolongement de l’architecture du choix et des interfaces. L’établissement d’une relation affective et émotionnelle avec des robots devient un secteur à part entière de recherche avec comme préambule la détection, le classement et in fine la modélisation des émotions à travers des indices verbaux et non verbaux. Des assistants vocaux en cours de déploiement commercial en passant par les perspectives de « care » via les robots (malades, personnes dépendantes…), la théorie du nudge trouve de larges champs d’application pour étudier et améliorer l’empathie de certains publics envers les machines. La modélisation et l’implémentation de compétences sociales du langage comme la politesse, l’humour ou l’ironie visent pour certaines équipes de chercheurs « à identifier et à interpréter certains indicateurs du comportement de l’interlocuteur qui caractérisent une interaction sociale et affective ; puis, grâce à l’humour, à engager l’interlocuteur humain dans une relation à long terme avec un robot de type Nao [14] ». La détection d’émotions, leur interprétation et leur simulation par des robots conversationnels ou anthropomorphes permises par les outils de l’apprentissage profond et l’intelligence artificielle rendent possible le profilage émotionnel en temps réel des individus.
27Une fois ces états émotionnels détectés, la machine peut calculer l’écart avec ceux attendus (l’accroissement d’un bien-être émotionnel par exemple pour une personne âgée) et à travers un dispositif de nudge conversationnel, comme l’humour, chercher à établir et orienter un dialogue avec l’humain aligné à ce genre d’objectifs comportementaux. L’attachement affectif avec une machine est ici le comportement recherché.
28Assez rapidement cependant, et notamment avec de jeunes enfants, ces méthodes d’influence comportementale glissent rapidement vers le dressage, comme par exemple lorsqu’un assistant vocal apprend à un enfant à être poli avec lui grâce au ressort du paternalisme libertaire qui se traduit ici par un message vocal de récompense quand l’enfant s’adresse poliment à l’objet (« merci », « s’il te plaît »…).
29L’accélération et l’amplitude de la mise en œuvre de la théorie du nudge par les dispositifs numériques couplés aux avancées de l’intelligence artificielle n’ont pas manqué ces derniers temps d’intéresser un domaine particulier de la vie publique : celui des processus électoraux. Exercice par excellence du choix et du libre arbitre démocratique, le vote se présente comme domaine d’application naturel du nudge. Dès la campagne d’Obama en 2008, les données électorales furent au centre de sa stratégie, le profiling et le mapping [15], les moteurs essentiels de sa vaste campagne de porte-à-porte couronnée par le succès que l’on connaît.
30Huit ans plus tard, la théorie du nudge formulée et les progrès dans le traitement du big data aidant, c’est désormais le « big nudge » ou « hypernudge [16] » qui s’est déployé au cours de la campagne pour les présidentielles américaines de 2016. Ouvertement, les électeurs ont été profilés en fonction de leurs peurs (migrants, atteinte au port d’armes…), moteur cognitif le plus puissant selon les termes du conseiller Roger Stone [17]. Le ciblage de ces publics en fonction de leur localisation dans les comtés déterminants des twin-states, couplé à des campagnes massives via les réseaux sociaux de mensonges parfaitement assumés activant les leviers de la peur chez ces électeurs, a montré une redoutable efficacité en matière d’architecture des choix en portant le nudge à un niveau d’efficacité et de précision comportementale jamais atteint.
Réductionnisme
31Le travail invisible des données et le développement des théories du nudge soulignent l’importance d’un courant de pensée ancien mais toujours davantage à l’ordre du jour. Ce concept philosophique qui a alimenté une bonne part du progressisme technique depuis le xviiie siècle nous semble important à revisiter pour tenter d’avoir une vue d’ensemble des questions soulevées par l’envahissement de tous les pans de la vie individuelle et collective par les technologies numériques.
32Ce puissant courant de pensée est le « réductionnisme » qui, s’il a fortement contribué à l’efficacité scientifique et technique, doit, selon nous, éviter de basculer dans un dogmatisme qui viserait à « réduire » la complexité humaine à des données, même massives, modélisables et manipulables.
33Le réductionnisme est un concept central du matérialisme cartésien qui vise à simplifier en autant de parcelles élémentaires possibles les phénomènes existants. Cette doctrine matérialiste donne comme seul existant la matière et comme science fondamentale la physique. La méthode analytique qui en découle, essentielle pour la démarche scientifique, a montré toute sa pertinence et fut plébiscitée par les plus grands noms de la science [18]. Cependant, l’absolutisation de ce principe qui pousse à ne considérer comme existant que ce qui est constitué par la substance matérielle, des occurrences physiques ou encore pour ce qui nous préoccupe de « données » mesurables est naturellement critiquable.
34En effet, et selon le titre de l’ouvrage de Pablo Jensen [19], « la société ne se laisse pas mettre en équation ». Le physicisme qui fait de la physique le modèle explicatif général du monde matériel ne peut être transposé épistémologiquement aux questions sociologiques, anthropologiques et moins encore politiques. Les concepts clés du rationalisme comme la réplicabilité ou la prédictibilité se heurtent à la complexité des relations humaines. La statistique s’est pourtant toujours définie comme une science de rationalisation du social que le digital turn pourrait amener à son épiphanie. La dérive du politique vers l’ingénierie sociale qui en résulte se fourvoie manifestement en croyant pouvoir modéliser tel problème social (travail, santé, violence…) en l’isolant et en le simplifiant. Les échecs récurrents, voire permanents, dans le domaine de la prévision économique soulignent que l’externalisation de certains effets à des fins de simplification des modèles ou la confusion statistique entre corrélation et preuve [20] mettent largement en échec l’approche réductionniste des phénomènes sociaux.
35Deux modèles de prédiction s’affrontent : soit une extrapolation du passé soit une modélisation. La première approche n’est pertinente que pour un avenir proche, la seconde s’effondre dès que le nombre de paramètres croît. Jansen résume ainsi les limites épistémologiques du réductionnisme en sciences sociales :
Il existe quatre facteurs essentiels qui rendent les simulations de la société qualitativement plus difficiles que celles de la matière : l’hétérogénéité des humains ; le manque de stabilité de quoi que ce soit ; les nombreuses relations à prendre en compte aussi bien au niveau temporel que spatial ; la réflexivité des humains qui réagissent aux modèles qu’on fait de leur activité.
37L’élément fondamental à retenir ici est que la fiction de représentation des modèles, si elle a montré naturellement son efficacité en science physique ou naturelle, est incapable de prédire les comportements sociaux. Plus largement, la modélisation et l’ingénierie sociale, malgré leurs atours rationalistes, participent d’une conception politique des sociétés : celle de croire possible leur modélisation et leur simplification externes. Cette idéologie de réification des relations humaines suppose que seule une action externe permet de « changer la société » et que la créativité et le pluralisme des acteurs impliqués n’est pas suffisante. Il s’agit en réalité d’une conception dépolitisée voire déshumanisée des rapports sociaux.
Mots-clés éditeurs : intelligence artificielle, dépolitisation, nudge theory, réductionnisme, big data
Mise en ligne 16/10/2020
https://doi.org/10.3917/retm.310.0029Notes
-
[1]
Steven Shapin, Simon Schaffer, Leviathan and the Air-Pump: Hobbes, Boyle, and the Experimental Life, Princeton University Press, 1985 ; Bruno Latour, Steve Woolgar, La vie de laboratoire, Paris, La Découverte, 1988.
-
[2]
Jérôme Denis, Le travail invisible des données, Presse des Mines, 2018, p. 33.
-
[3]
Susan L. Star, “The ethnography of Infrastructure”, American Behavioral Scientist, vol. 43 (3), 1999, p. 377-391, cité par Jérôme Denis, Le travail invisible des données, p. 45.
-
[4]
Antonio Casilli, En attendant les robots, enquête sur le travail du clic, Paris, Éd. du Seuil, 2019.
-
[5]
Jérôme Denis, Le travail invisible des données, p. 97.
-
[6]
Le back office, souvent traduit par « service d’appui », représente l’ensemble des activités d’administration, de contrôle et d’aide d’une entreprise (facturation, paye, informatique, relation téléphonique…) qui peuvent être séparées du reste de l’entreprise (délocalisées ou externalisées) (NDLR).
-
[7]
Evgeny Morozov, Pour tout résoudre, cliquez ici. L’aberration du solutionnisme technologique, FYP, 2014.
-
[8]
Jérôme Denis, Le travail invisible des données, p. 153 : l’économiste Rufus Pollock et son slogan “give us the data raw, give us the data now”, ou Tim Berners-Lee, co-inventeur d’Internet “We want data raw”.
-
[9]
Le développement des services en ligne (NDLR).
-
[10]
Jérôme Denis, Le travail invisible des données, p. 178.
-
[11]
Qui s’est vu décerné en 2017 le prix Nobel d’économie pour ces travaux.
-
[12]
Richard H. Thaler, Cass R. Sunstein, Nudge: Improving Decisions About Health, Wealth and Happiness, Yale University Press, 2008.
-
[13]
En 2008, le Premier ministre britannique David Cameron avait intégré une “Nudge unit” dans son cabinet, suivant l’exemple de Barack Obama.
- [14]
-
[15]
La détermination des caractéristiques des personnes (profilage) et leur cartographie (NDLR).
-
[16]
Karen Yeun, “‘Hypernudge’: Big Data as a mode of regulation by design”, Information, Communication & Society, Vol. 20, 2017, Issue 1: The Social Power of Algorithms.
https://www.tandfonline.com/doi/full/10.1080/1369118X.2016.1186713. -
[17]
Voir l’excellent document Get me Roger Stone, de Dylan Bank et Daniel DiMauro, 2017. https://www.youtube.com/watch?v=5IPyv4KgTAA.
-
[18]
Isaac Newton : « Dans tous les cas, la marche de la Nature est donc très simple et toujours conforme à elle-même : puisqu’elle produit tous les grands mouvements des corps célestes, par la gravitation ou l’attraction réciproque de ces corps ; et presque tous les petits mouvements des particules des corps, par d’autres forces attractives et répulsives, réciproques entre ces particules », Optique de Newton, vol 2, Paris, Leroy, 1787, p. 267-268 ; Albert Einstein : « c’est-à-dire la théorie de tous les phénomènes de la nature, y compris ceux de la vie », Comment je vois le monde, Paris, Flammarion, 1958, p. 141.
-
[19]
Pablo Jensen, Pourquoi la société ne se laisse pas mettre en équations, Éd. du Seuil, mars 2018.
-
[20]
Par exemple le rapport entre croissance et emploi qui peut sembler intuitif, se révèle sur le long terme comme un phénomène incertain de corrélation qui empêche une prévision et une planification fiable.