Notes
-
[1]
https://www.un.org/sustainabledevelopment/fr/objectifs-de-developpement-durable/
-
[2]
https://www.edge.org/conversation/alex_sa ndy_pentland-the-human-strategy
-
[3]
http://www.un.org/fr/millenniumgoals/
-
[4]
Le détail de ces travaux peut être appréhendé ici: http://news.mit.edu/2018/artificial-intelligence-model-learns-patient-data-cancer-treatment-less-toxic-0810
Introduction
1 À quoi la mesure est-elle bonne ? Mieux mesurer la pauvreté et la pollution permet-il de les réduire ? Ces questions se posent alors que les espoirs – d’atteinte des Objectifs de développement durable (ODD) [1] notamment – suscités par la « Révolution des données » cohabitent avec un scepticisme voire un rejet à son égard, attisés par le spectre d’une intelligence artificielle, des « faits alternatifs », et de technologies œuvrant au profit des machines et des élites (Cukier, 2013 ; Letouzé, 2012 ; O’Neil, 2016). Est-il possible de retrouver le sens de la mesure pour concevoir grâce à elle et aux ressources clés de la quatrième Révolution industrielle – les données et les algorithmes – des systèmes humains plus efficaces, plus équitables, plus soutenables, et renouveler les promesses de la démocratie comme gouvernement par la discussion ? Cette vision, c’est celle d’une intelligence artificielle humaine (IAH) qui reflète et sert le développement humain [2].
2 Mesure et développement humain sont historiquement liés. Après l’invention de la monnaie comme unité de compte (notamment) et de la quantification progressive de la nature via la masse, la distance, ou le volume, celle de la statistique comme « science de l’État », au cœur de la « gouvernementalité » (Foucault, 1994), a constitué un jalon majeur de l’ère moderne – à la fois marque et manette des États-nations naissants. Près de cent ans après son invention dans une ère pauvre en données, et malgré les multiples limites et alternatives qui lui ont été opposées, le Produit intérieur brut (PIB) continue par exemple d’être l’étalon de succès et d’échec des « politiques » (au double sens de « policies » et « politicians » en anglais).
3 Le PIB est un cas d’école d’une mesure qui compte – au sens où l’on dit dans une perspective northienne que « les institutions comptent » (North, 1994) : selon toute vraisemblance, son existence a induit des décisions et des conséquences qui eussent été différentes en son absence, avec des effets contrastés. Les Objectifs du Millénaire pour le Développement (OMD) [3] rappelaient le double rôle de la mesure, à la fois expression d’une intention et instrument de sa réalisation. Leur mise au goût du siècle, les ODD, disent et visent ceci : la protection de l’environnement ou la satisfaction des citoyen(ne)s doivent désormais compter. Mais la relation entre mesurer X et affecter X n’est pas simple.
L’intelligence artificielle au défi de l’intelligence collective
4 Dans des systèmes relativement simples (comme dans une famille ou une voiture) il n’est souvent pas besoin de mesurer (ses enfants ou sa vitesse) pour bien agir. Les incitations y sont claires, les relations de causalité identifiées et les bonnes actions internalisées. Les sociétés humaines modernes pluralistes sont des systèmes extrêmement complexes, où il est difficile de s’accorder sur les fins et les moyens. Leur digitalisation génère aussi des torrents de données qui contribuent à la dataification du monde. Le terme anglais « data » issu du latin data, pluriel de datum, participe passé neutre de qui signifie « donner », est apparu au XVIIe siècle avant d’être davantage usité au cours du XVIIIe siècle tout en changeant de sens : de prémisse à résultat, de données au sens des « données d’un problème », à données au sens de fruits de l’expérimentation. C’est cette double fonction des données et des mesures qui en sont extraites comme intrants et extrants de processus cognitifs, scientifiques, politiques, qui est au cœur des intelligences artificielles actuelles, et pourrait inspirer et nourrir une intelligence artificielle humaine (IAH). L’IAH serait un système humain apprenant, où les décisions collectives (telles que les politiques publiques) seraient plus fortement prises, mises en œuvre, évaluées, ajustées, sur la base de mesures issues des nouvelles données disponibles.
5 Pour imaginer une intelligence artificielle humaine, il faut saisir la nature et la nouveauté des intelligences artificielles actuelles. En simplifiant, ces outils analysent de manière algorithmique (à travers des règles de classification, de hiérarchisation, etc.) les données digitales issues d’appareils et services numériques utilisés par des humains, à des fins de prévisions, de suggestions, etc. Pour cela, elles tirent les leçons de millions d’essais d’entraînement au cours desquels elles auront appris à « connecter » une donnée entrante et une donnée sortante (ou cible). La clé, ou « bonne magie », de ces systèmes est la fonction de crédit, qui identifie les poids assignés à diverses observations transmises à ses différents neurones artificiels pour leur permettre d’obtenir le résultat souhaité, puis de renforcer les neurones qui « aident », c’est-à-dire ceux qui utilisent ces poids, et délaisser ceux qui mènent à un mauvais résultat. Une intelligence artificielle bien entraînée sera ainsi capable de prédire si un grain de beauté est susceptible d’être cancéreux ou non [4] ou d’estimer le niveau de pauvreté d’une ville sur la seule base des métadonnées de téléphone portable de ses habitants (Hernandez et al, 2017). Ces machines apprennent à identifier et renforcer, à travers les données humaines disponibles et les mesures qu’elles en extraient, les caractéristiques et actions qui leur permettent d’obtenir le résultat escompté.
6 L’évolution humaine et la culture fonctionnent selon des principes similaires. Au fil du temps, les caractéristiques et actions objectivement ou jugées bénéfiques sont identifiées, valorisées, renforcées, sur la longue durée. C’est ce qu’essaient de faire les codes pénaux et fiscaux du monde. Cette vision va au-delà de l’utilisation d’intelligences artificielles dites étroites – celles qui permettent de prédire les cancers ou d’estimer la pauvreté : c’est une vision globale qui s’inspire de ses principes tout en utilisant ses outils. Des mesures fondées sur des données générées par des humains alimentent et améliorent le fonctionnement des systèmes humains en appliquant la « bonne magie » des intelligences artificielles pour identifier et renforcer ce qui « fonctionne » le mieux au regard d’objectifs mesurables, qui eux-mêmes peuvent changer sur la base de l’observation générale de leurs effets. Si les résultats recherchés ne « marchent » plus pour la majorité – par exemple l’augmentation du PIB – alors il est possible de changer ce qui est mesuré et recherché en optant pour de nouvelles voies. Avec le temps, ce qui aide à produire les effets désirés prendra le dessus, et sera transformé en normes sociales qui nécessitent moins de mesures.
Les conditions d’une intelligence artificielle humaine
7 Concevoir un tel système n’est ni sans difficulté, notamment dans des pays ayant de faibles capacités techniques et humaines, ni sans risque (Kolbert, 2017).
8 Il faut tout d’abord avoir accès à des données humaines adéquates, et en faire usage, de façon systémique, sécurisée, et éthique. Les données personnelles collectées et contrôlées par des entreprises privées qui rendent l’intelligence artificielle humaine envisageable présentent des enjeux et des risques majeurs en termes de respect de la vie privée et d’équilibre des pouvoirs entre les groupes ayant accès aux données et aux outils nécessaires, notamment. L’expérience pointe vers quelques enseignements. Avant tout, il ne s’agit pas de mesurer et d’évaluer des actions individuelles, mais collectives, telles que des politiques publiques, sur la base de données « pseudonymisées » et agrégées, de telle sorte qu’elles ne sont plus personnelles. Ces données doivent demeurer dans les serveurs de leurs contrôleurs légaux et ne jamais être exposées. Par ailleurs, les algorithmes qui permettent leur analyse à des fins publiques doivent être ouverts ou à tout le moins auditables, notamment pour éviter ou sanctionner les discriminations reproduites ou renforcées par leur exécution. En outre, les « sujets de données » doivent donner leur consentement à ce que ces analyses utilisent les données les concernant, sur la base d’une exposition des risques et bénéfices raisonnablement attendus. Ces processus d’accès et d’utilisation des données doivent également être participatifs, et considérés comme partie intégrante du bon fonctionnement et de la bonne gestion des sociétés modernes. Il faut enfin instiller et nourrir une solide et saine culture de la mesure pour qu’elle devienne une langue comprise et admise par le plus grand nombre. Ceci requiert un effort de formation (on pense à la « data literacy » notamment). Enfin, si la mise en nombre du monde, et l’agrégation d’individualités par la mesure pour des raisons de représentativité et de sécurité, est un moyen puissant de mieux gérer les sociétés, son utilisation doit être soumise à des limites, et notamment celles de ne pas occulter les individualités au profit du grand nombre, et les phénomènes et processus qui ne se prêtent pas à la quantification. Que la mesure prenne un rôle beaucoup plus central dans les décisions publiques ne doit pas l’ériger en instrument dictatorial.
Comment mettre un tel outil en application ?
9 Tels sont entre autres, les principes et objectifs clés du projet « Open Algorithms » (OPAL). OPAL est un projet visant à permettre aux utilisateurs accrédités d’interroger des données du secteur privé par le biais d’algorithmes ouverts tournant via une plateforme sécurisée sur les serveurs d’entreprises privées partenaires, derrière leur pare-feu, afin d’en extraire des mesures agrégées d’intérêt à partir d’activités de téléphonie mobile, de transactions bancaires, de transport, et plus encore. Aucune donnée sensible ne quitte les serveurs des organisations partenaires de données. Les requêtes sont enregistrées, vérifiables ; les algorithmes sont ouverts, sujets à examen et à modification. OPAL a également pour objectif de développer des normes et des processus de gouvernance qui permettront aux personnes concernées d’apprécier les types d’analyses effectuées à l’aide de données les concernant, y compris par le biais d’organes de supervision locaux appelés Conseils d’orientation pour le développement et l’éthique auxquels les cas d’utilisation sensibles sont présentés. Depuis 2017, OPAL est mis à l’essai en Colombie et au Sénégal avec leurs instituts nationaux de statistiques et les opérateurs téléphoniques, Telefónica et Orange-Sonatel. Dans le cadre de ces pilotes, les instituts et autres utilisateurs accrédités peuvent faire tourner des algorithmes ouverts certifiés sur les métadonnées des entreprises partenaires pour obtenir des estimations de densité de population ou de pauvreté. Ceci peut permettre par exemple une mise à jour plus fréquente des projections démographiques et de suivre les changements de niveaux de vie en réponse à des investissements publics de façon fine et rapide.
Conclusion
10 Ainsi, l’intelligence artificielle humaine consiste à donner aux sociétés humaines une analogie et des outils, dont la « bonne magie » de l’intelligence artificielle est la force de la mesure, pour questionner et améliorer les systèmes de prise de décision, les structures de pouvoir, et le développement humain.
Bibliographie
Bibliographie
- Bloom P. (2016), Against empathy: the case for rational compassion, First edition, New York, NY Ecco, HarperCollins.
- Cukier K. (2013), « The data revolution », The Economist.
- Foucault M., Defert D. et Ewald F. (1994), Dits et écrits, 1954-1988: 1976-1979. Vol. III. Éditions Gallimard
- Hernandez H. et al. (2017), Estimating poverty using cell phone data : evidence from Guatemala (English). Policy Research working paper; no. WPS 7969. Washington, D.C., World Bank Group
- Kolbert E. (2017), « Why Facts Don’t Change Our Minds », The New Yorker.
- Letouzé E. (2012), « Big Data for Development: Challenges and Opportunities », United Nations Global Pulse.
- North D. (1994), « Institutions Matter », Economic History, University Library of Munich, Germany.
- O’Neil C. (2016), Weapons of math destruction: how big data increases inequality and threatens democracy, First edition, New York: Crown.
Notes
-
[1]
https://www.un.org/sustainabledevelopment/fr/objectifs-de-developpement-durable/
-
[2]
https://www.edge.org/conversation/alex_sa ndy_pentland-the-human-strategy
-
[3]
http://www.un.org/fr/millenniumgoals/
-
[4]
Le détail de ces travaux peut être appréhendé ici: http://news.mit.edu/2018/artificial-intelligence-model-learns-patient-data-cancer-treatment-less-toxic-0810