Couverture de DIO_269

Article de revue

L’intelligence artificielle n’existe-t-elle vraiment pas ? Quelques éléments de clarification autour d’une science controversée

Pages 107 à 120

Notes

  • [1]
    Rappelons en effet que Luc Julia est vice-président chargé de l’innovation chez Samsung et préfère, en ce sens, insister sur les « objets intelligents » conformément à la stratégie économique de l’entreprise qui l’emploie.
  • [2]
    Rappelons que John McCarthy, Marvin L. Minsky, Nathaniel Rochester et Claude E. Shannon en sont les organisateurs.
  • [3]
    Par exemple Sam Altman d’Open AI.
  • [4]
    C’est aussi le cas des travaux que Herbert A. Simon a effectué avec son collègue Allan Newell (1956) et qui lui ont par exemple permis de développer sa théorie de la rationalité limitée dont il est difficile de nier l’apport dans le domaine des sciences sociales.
  • [5]
    C’est ce que plusieurs auteurs nomment (e.g., Joly, 2010) « l’économie de la promesse », à savoir que les promesses, souvent non tenues, contribuent tout de même à donner de la valeur à telle ou telle technologie.
  • [6]
    Précisons que cette métaphore du pain aux raisins est de Patrick Winston (voir Crevier 1997 [1993] : 251).
  • [7]
    Rappelons que le MEMEX est une invention conceptuelle de Vannevar Bush ; elle a été reprise par les pionniers de l’Internet qui, soulignons-le, étaient également, au moins pour les plus importants d’entre eux, chercheurs en intelligence artificielle (voir Cardon 2019).

Introduction

1Depuis ces dix dernières années et concomitamment avec le développement des mégadonnées (ou big data) et des capacités de calcul permettant de les traiter, l’intelligence artificielle a suscité de nombreux débats. Des personnalités médiatiques et du monde des affaires comme Laurent Alexandre, Elon Musk, Bill Gates, ou encore Stephen Hawking, ont, par exemple, fait des déclarations tapageuses à son sujet. Ces dernières ont produit parmi le grand public des fantasmes et des peurs, de sorte que les sociologues qui s’intéressent à l’intelligence artificielle considèrent généralement qu’il est urgent de clarifier la situation afin de permettre une appropriation collective réaliste et raisonnée des enjeux de l’intelligence artificielle. Aussi, même si ce point de vue n’est pas toujours explicitement assumé dans la mesure où il s’affirme principalement lors de rencontres entre pairs (telles que des colloques, journées d’étude, ateliers, séminaires, etc.), certains sociologues pensent-ils que la première façon d’opérer cette clarification est de commencer par abolir l’emploi du concept d’intelligence artificielle. De manière générale, l’argument mobilisé pour justifier ce positionnement est qu’en associant maladroitement les mots « intelligence » et « artificielle », cette notion obscurcit notre compréhension de l’intelligence et de la machine. Dans cet article, nous nous opposerons à cette idée, non pas tellement parce que nous la trouvons gênante sur le plan philosophique, mais simplement parce qu’elle consiste en une posture normative qui ne permet pas de saisir correctement ce que désigne l’intelligence artificielle. Autrement dit, si nous partageons l’idée qu’il est nécessaire de démystifier l’intelligence artificielle, nous doutons en revanche de l’efficacité de la stratégie consistant à congédier cette notion sous prétexte qu’elle serait trompeuse.

2Yves Gingras est l’un des tenants de la position que nous venons d’introduire. Cet historien des sciences a récemment entrepris, dans le cadre des recherches qu’il conduit actuellement, de soutenir la thèse selon laquelle l’intelligence artificielle n’existe pas (voir Gingras 2019). Pour ce faire, ce chercheur de renom défend, avec beaucoup de justesse, l’idée que l’intelligence artificielle constitue un problème socioéconomique qui fait l’objet d’une construction sociale largement discutable, notamment parce que cette fabrication recouvre des formes de lobbying qui portent tort à la communauté scientifique et au-delà. Il n’en reste pas moins que soutenir, en référence explicite au livre de Luc Julia (2019), que l’intelligence artificielle n’existe pas engendre une confusion malvenue : nous ne voyons pas comment une affirmation aussi radicale, même à titre de slogan, peut dévoiler au grand public les véritables enjeux associés au développement de l’intelligence artificielle. Si nous prenons au sérieux cet argument et que nous finissons par l’accepter, il n’y a effectivement plus grand-chose à dire sur ce problème puisqu’il n’y a plus d’intelligence artificielle !

3D’un point de vue strictement sociohistorique, l’affirmation selon laquelle l’intelligence artificielle n’existe pas est si clairement incorrecte qu’elle en devient curieuse : comment est-il possible de formuler cette idée sous prétexte de chercher à démystifier l’intelligence artificielle et d’éclairer ses enjeux ? À notre avis, la réponse à cette question est probablement moins liée à la qualité sémantique – souvent jugée mauvaise – du concept d’intelligence artificielle qu’à l’utilisation que les acteurs en font la plupart du temps. Si l’invention du concept en question est maladroite, il n’en reste pas moins que le fond du problème est qu’à l’heure actuelle l’usage qui en est fait renvoie à des réalités diverses. Finalement, qu’est-ce que l’intelligence artificielle ? Est-ce une technologie, un bien de consommation, une sorte d’esprit que développent les machines, ou encore une discipline scientifique ? Par le biais de ses usages, la notion d’intelligence artificielle ne comporterait-elle pas plusieurs dimensions que nous pourrions respectivement qualifier, en référence à la question qui précède, de technique, de marchande, de spirituelle et de scientifique ? Autrement dit, que veulent dire, au juste, Yves Gingras (2019) ou Luc Julia lorsqu’ils proclament que l’intelligence artificielle n’existe pas ? D’après nous et dans le cas de Luc Julia (2019), la réponse est la suivante : l’auteur cherche à discréditer le concept d’intelligence artificielle en se référant exclusivement à sa dimension spirituelle, c’est-à-dire à l’idée selon laquelle elle serait une sorte de capacité cognitive que les machines peuvent développer pour reproduire, en la dépassant, l’intelligence humaine.

4En reprenant le slogan de Luc Julia sans rendre compte des intérêts que ce dernier peut trouver à le formuler et à le communiquer auprès des non-spécialistes, Yves Gingras (2019) contribue à faire exister une assertion qui, si elle peut être intéressante pour un acteur économique [1], peut paraître surprenante de la part d’un scientifique. Comme nous le verrons par la suite, l’étude sociohistorique de l’intelligence artificielle nous apprend que, du point de vue de la sociologie des sciences et des techniques, il s’agit d’une discipline scientifique dont l’existence est bel et bien réelle ! Précisons toutefois qu’en disant cela, nous ne souhaitons pas exprimer l’idée que cette existence ne doit pas être questionnée du point de vue de l’épistémologie normative : comme dans le cas de toutes les autres sciences, la valeur et la validité épistémique de l’intelligence artificielle demandent à être interrogées. Mais il ne faudrait pas non plus qu’un tel questionnement conduise à masquer les modes d’existence empirique de la science considérée, c’est-à-dire la manière dont la société la construit et la reconnaît. C’est précisément sur ce dernier point que nous souhaitons focaliser notre attention, non pas parce que les problèmes d’épistémologie normative que pose cette science ne sont guère intéressants : comme le montrent les travaux de Hubert L. Dreyfus (2019 [1965]) et de Seymour Papert (2019 [1968]), ils s’avèrent même passionnants. Simplement, il ne nous apparaît pas indispensable, a minima pour soutenir nos arguments, de répondre à ces interrogations bien trop colossales pour être abordées de manière satisfaisante dans l’espace d’un article.

5Aussi, en tant qu’historien des sciences, Yves Gingras aurait-il pu considérer que chercher à congédier le concept d’intelligence artificielle a des implications importantes sur le plan sociohistorique. Pour le sociologue qui connaît un peu l’histoire de la discipline, au mieux, il s’agit d’une approximation qui introduit plus de confusion qu’il n’en existe déjà, notamment au sein des communautés scientifiques. Au pire, cela revient à nier la réalité, ce qui est difficilement acceptable sur le plan historique. Dans le sillage des travaux de Dominique Cardon et de ses collègues (voir Cardon, Cointet & Mazières 2018), nous sommes convaincus qu’une bonne connaissance de l’histoire de l’intelligence artificielle permet de mieux comprendre et appréhender son développement actuel, mais aussi celui des applications technologiques qui en sont issues.

Comprendre les modes d’existence de l’intelligence artificielle

6Qu’on le veuille ou non, la réalité sociohistorique de l’intelligence artificielle ne dépend pas seulement de l’ontologie subjective qu’il est possible de lui accorder. Pour reprendre les termes de John R. Searle (1995), elle est également épistémiquement objective. Cela veut dire que l’opinion de Luc Julia (2019) concernant l’intelligence artificielle n’efface ni le passé, ni le présent de cette science. Il est en ce sens étonnant qu’un chercheur comme Yves Gingras (2019) n’ait pas identifié le paradoxe que recouvre la formule selon laquelle l’intelligence artificielle n’existe pas, ni même les enjeux économiques qui y sont associés. Même à titre de slogan, comment peut-on formuler une telle assertion en sachant que cette notion permet, en premier lieu, de désigner une science née en 1956 au collège de Dartmouth [2] et qui a par la suite été généralement classée parmi les sous-disciplines ou, si l’on préfère, parmi les domaines d’étude des sciences de l’informatique (computer sciences) ? Cela paraît d’autant plus curieux qu’il est possible de reconnaître, à tout le moins sur le plan empirique, l’existence de la dimension scientifique de l’intelligence artificielle tout en admettant, par exemple à l’instar de Allen Newell et de Herbert A. Simon (Norberg 2019 [1989]), que ce terme est mal choisi. À titre personnel, nous nous accordons avec ces deux chercheurs pour considérer que le concept de système de traitement complexe de l’information est plus approprié que celui d’intelligence artificielle (voir Newell & Simon 1956). Toutefois, il s’agit là d’un point de vue normatif et il nous semblerait peu élégant d’introduire une confusion historique pour le soutenir : peu importe que cela nous plaise, lors de la conférence susmentionnée, John McCarthy a imposé le terme d’intelligence artificielle face à ses collègues et cette dénomination a fini par s’imposer (Crevier 1997 [1993]).

7En tant que sociologues, nous pensons cependant qu’il est utile de chercher à mieux saisir la réalité empirique que désigne la notion d’intelligence artificielle. Un tel travail n’implique pas seulement de comprendre cette dernière du point de vue de l’émetteur, mais aussi de celui du récepteur. Expliquons-nous. À l’instar d’autres collègues, Yves Gingras (2019) considère que la confusion entourant aujourd’hui l’intelligence artificielle est liée à ce concept malheureux que compose l’association des mots « intelligence » et « artificielle ». Bien sûr, ce point de vue comporte une part de vérité : John L. Austin (1962) nous a depuis longtemps appris que le langage contient une dimension pragmatique par le biais de laquelle nous participons à la conception du monde. Il est par conséquent possible que nous aurions développé une conception de notre environnement numérique complètement différente si Allen Newell et Hebert A. Simon (1956) avaient, par exemple, réussi à imposer leur notion de système de traitement complexe de l’information face à John McCarthy. Il ne faudrait pas pour autant oublier les limites de la théorie de la performativité qui, comme les spécialistes de la pragmatique linguistique l’ont montré (Grice 1975 ; Searle 1999 ; Sperber et Wilson 1989), est issue d’une approche centrée sur la figure du locuteur. À la suite de John L. Austin (1962), des auteurs comme John R. Searle (1999), mais aussi et surtout Paul H. Grice (1975), Dan Sperber et Deirdre Wilson (1989) ont ajouté que la performativité du langage ne dépend pas seulement du pouvoir d’expression du locuteur, mais aussi de la capacité de l’interlocuteur à l’interpréter plus ou moins correctement. Cela signifie que la mauvaise connaissance que le grand public a de l’intelligence artificielle n’est pas la seule répercussion de l’invention malheureuse de ce concept. C’est aussi et surtout la conséquence de notre compréhension collective à son sujet.

8En référence aux travaux de Bruno Latour (2012), si la sociologie à un rôle scientifique à jouer dans cette compréhension, celui-ci consiste donc moins, d’après nous, à affirmer que l’intelligence artificielle n’existe pas qu’à montrer, au contraire, comment s’est faite et se fait son existence ! Une bonne façon d’atteindre cet objectif est alors de commencer par revenir aux origines de la notion afin de mieux identifier la réalité empirique qu’elle désigne au départ et de mieux appréhender comment se construit sa dynamique sociohistorique. Aussi, étant donné que le concept d’intelligence artificielle a été inventé pour désigner un domaine scientifique, estimons-nous qu’une façon simple et rigoureuse d’effectuer ce travail est de chercher à comprendre les dimensions internaliste et externaliste de cette science ou, plus exactement, de ce domaine d’étude des sciences informatiques que compose l’intelligence artificielle. Plus précisément, il convient pour cela de mieux saisir, d’une part, les cadres cognitifs au sein desquels se développe la logique de production des énoncés propres à cette discipline et à mieux comprendre, d’autre part, les cadres sociaux qui forment l’environnement au sein duquel évoluent ces mêmes cadres cognitifs.

La dimension internaliste de l’intelligence artificielle

9Afin de mieux saisir la dimension internaliste de l’intelligence artificielle, revenons à la définition que John McCarthy, Marvin L. Minsky, Nathaniel Rochester et Claude E. Shannon ont proposée de cette discipline lors de la conférence de Dartmouth qui constitue son premier acte d’institutionnalisation :

10

[L’intelligence artificielle] doit se fonder sur l’hypothèse que chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrit avec une telle précision qu’une machine peut être fabriquée pour le simuler. On tentera de trouver comment faire en sorte que les machines utilisent le langage, produisent des abstractions et des concepts, résolvent des types de problèmes désormais réservés aux humains et s’améliorent. Nous pensons qu’une avancée significative peut être réalisée dans un ou plusieurs de ces problèmes si un groupe de scientifiques soigneusement sélectionnés y travaille ensemble pendant un été.
(McCarthy, Minksy, Rochester & Shannon 2019 [1955] : 2 [notre traduction])

11Notons que cette définition de l’intelligence artificielle est encore d’actualité, même si les spécialistes peuvent l’interpréter différemment en fonction des champs de recherche à l’intérieur desquels ils évoluent. En référence aux travaux de Alan Turing (1950) – qui est souvent considéré comme un des précurseurs en la matière – le programme scientifique de cette discipline est alors, de manière générale, de contribuer à produire des connaissances sur ce qu’est l’intelligence. Afin de bien saisir les fondamentaux de ce programme, il nous semble important de rappeler qu’à tout le moins d’un point de vue empirique, l’intelligence artificielle est une science jeune, interdisciplinaire et expérimentale (voir Vayre 2016) : jeune, étant donné que, comme nous l’avons vu, son institutionnalisation date d’un peu plus de soixante ans ; interdisciplinaire, dans le sens où les cherheurs qui la font ont toujours réalisé leurs travaux à la croisée des mathématiques et des sciences informatiques, des sciences de gestion, mais aussi des sciences humaines et sociales ; expérimentale, dans la mesure où la validité des résultats qu’elle produit a systématiquement été évaluée en fonction de leurs capacités à être représentés par des modélisations informatiques qui effectuent correctement les théories qui en sont sous-jacentes. Comme nous l’avons mentionné et sur le plan fondamental, cette discipline s’est alors toujours focalisée sur un même problème : qu’est-ce que l’intelligence et est-il possible de la reproduire par un artefact comme un programme informatique ? Partant, pour répondre à cette question, les chercheurs en intelligence artificielle se sont plus ou moins explicitement accordés pour faire l’hypothèse générale selon laquelle l’intelligence n’est pas l’œuvre d’un quelconque Dieu mais une composition complexe mêlant du biologique et du social, dont la matérialité peut être représentée et reproduite par le truchement d’une machine (Vayre 2016). Précisons que cette hypothèse fondamentale s’inscrit de cette façon au sein de traditions intellectuelles anciennes qui ont toujours consisté à opposer les vitalistes et les mécanistes. D’ailleurs, plusieurs philosophes, notamment à la suite d’Emmanuel Kant (1869), ont depuis longtemps proposé de les réconcilier.

12Aussi, pour mettre à l’épreuve l’hypothèse générale dont nous venons de parler, les chercheurs en intelligence artificielle ont puisé leurs outils conceptuels, théoriques et méthodologiques au sein d’une grande diversité de disciplines, comme la philosophie, la logique, la linguistique, l’anthropologie, la sociologie, la psychologie, la biologie, voire la neurologie. Contrairement à ce que le sens commun pourrait laisser penser, il convient par là même de ne jamais oublier que les activités de travail des chercheurs en intelligence artificielle consistent in fine à étudier les manifestations empiriques du comportement intelligent afin de représenter son fonctionnement à l’aide de concepts qui peuvent faire l’objet d’une formalisation algorithmique (Ganascia 2007). En outre, du fait de la diversité des disciplines mobilisées, il est extrêmement difficile de rendre compte de la variabilité des cadres théoriques et méthodologiques qui permettent à ces scientifiques de mettre à l’épreuve l’hypothèse générale que nous venons de présenter. Il est toutefois possible de dégager deux tendances sociohistoriques intéressantes pour saisir les évolutions paradigmatiques qui caractérisent cette science.

13La première renvoie à une des plus importantes controverses ayant animé la dynamique de l’intelligence artificielle et qui a opposé les partisans des approches symboliques de l’intelligence aux partisans des approches connexionnistes (voir Cardon, Cointet & Mazières 2018 ; Vayre 2016). Jusqu’aux années quatre-vingt-dix, les recherches en intelligence artificielle consistaient à mobiliser des concepts, des théories et des méthodes issues de la psychologie, de l’anthropologie, ou encore de la sociologie, de façon à décrire et à comprendre l’intelligence comme un ensemble de fonctions cognitives dont il faut traquer l’origine dans la société. Rappelons en ce sens que Herbert A. Simon (1969) – un des plus éminents représentants des approches symboliques – se plaisait à répéter que s’il pouvait discuter aussi longuement d’intelligence sans même parler une seule fois de l’architecture matérielle du cerveau, c’est précisément parce que, de son point de vue, les bases de l’intelligence sont plus sociologiques que biologiques. Depuis les années 2000 s’opère toutefois un basculement qui conduit à la prédominance des approches connexionnistes de l’intelligence (Cardon, Cointet & Mazières 2018 ; Vayre 2016), qui privilégient les méthodologies d’apprentissage profond (deep learning), fondées sur les réseaux de neurones. Par conséquent, les chercheurs en intelligence artificielle sont aujourd’hui amenés à s’intéresser essentiellement aux concepts et aux méthodes issus de la neurologie. Et de ce point de vue, tout s’inverse : les origines de l’intelligence ne sont plus à chercher dans la société. Elles se trouvent principalement dans l’architecture matérielle du cerveau. Compte tenu des impressionnantes avancées technologiques observées ces dernières années en la matière, quelques chercheurs [3] exerçant souvent dans des laboratoires privés en concluent même qu’il devrait bientôt être possible de reproduire, en mieux, l’intelligence du vivant. Ceci nous amène à aborder la deuxième tendance susmentionnée.

14Jusqu’aux années 2000, la majorité des chercheurs en intelligence artificielle ne s’intéressent pas vraiment à ce que John R. Searle (1999) appelle l’intelligence artificielle forte, c’est-à-dire cette forme de recherche particulière qui vise à reproduire l’intelligence générale que possède tout être humain. Des chercheurs comme Seymour Papert et Yann LeCun en constituent d’ailleurs des exemples parfaits puisqu’ils se sont toujours attachés à expliquer au grand public que leurs travaux consistaient à développer des programmes informatiques qui exécutent des aspects restreints de l’intelligence et qui ne fonctionnent correctement que dans des cadres d’activités bien précis (voir l’intelligence artificielle faible ; Searle 1999). Cela rappelle d’ailleurs le débat entre Alan M. Turing et Ludwig J. J. Wittengstein relaté par Antonio Cassilli (2019), la performance technologique étant une forme d’intelligence pour l’un, l’exécution de consignes produites par des humains pour l’autre. Pour revenir à notre propos, il semble que l’engagement que certains montrent aujourd’hui dans ce type de projet quasi messianique qui consiste à travailler avec ferveur à la fabrication de programmes informatiques cherchant à reproduire et à dépasser l’intelligence humaine est donc assez nouveau. Bien évidemment, pour aller dans le sens de Luc Julia (2019) et de YvesGingras (2019), tous les chercheurs en intelligence artificielle savent que de tels programmes informatiques n’existent pas ! Car les intéressés ont généralement une conscience aiguë des limites de leurs travaux. Le cas de ceux réalisés au laboratoire de recherche en intelligence artificielle de Berkeley (BAIR) dans les années quatre-vingt en constitue un exemple éloquent puisque Robert Wilensky et ses collègues mesurent parfaitement l’échec de leur projet consistant à concevoir un programme informatique capable de reproduire le sens commun (Rose 1986 [1984]). Or cet échec technologique n’est pas sans intérêt scientifique puisqu’il permet de tirer trois résultats capitaux pour mieux comprendre ce qu’est l’intelligence du point de vue de l’action ordinaire. Le premier est que l’action humaine, aussi triviale soit-elle, englobe systématiquement des formes de résolution de problème qui, malgré leur caractère automatique, sont complexes sur le plan cognitif. Le deuxième est que ces formes de résolution de problème sont indissociables des conventions sociales qui préexistent à l’action. Le troisième est que l’articulation du cognitif et du social qui est à l’œuvre dans l’accomplissement de toute action humaine (y compris les plus routinières), recouvre une forme d’intelligence extrêmement difficile à identifier, à décrire, à comprendre, à formaliser et à modéliser.

15D’un point de vue internaliste, l’intelligence artificielle est une science jeune qui comporte un caractère étrange, au moins dans la mesure où elle s’est jusqu’ici attachée à mettre à l’épreuve une hypothèse fondamentale qu’elle n’a jamais validée dans les faits. Il est toutefois difficile de ne pas admettre que cette étrangeté ne l’a pas empêché de produire des résultats précieux pour décrire et comprendre ce qu’est l’intelligence, comme l’illustre le cas des travaux de Robert Wilensky et de ses collègues dont il vient d’être question [4].

La dimension externaliste de l’intelligence artificielle

16L’originalité de l’intelligence artificielle n’est pas propre à sa composante internaliste : la dimension externaliste de cette sous-discipline des sciences informatiques est tout aussi étonnante. Il s’agit d’un des rares domaines d’étude académique qui, dès sa naissance, a attiré l’attention des acteurs politiques et économiques. Les programmes informatiques que développent les fondateurs de l’intelligence artificielle (Logic Theorist ; Newell & Simon 1956), malgré leurs nombreuses imperfections, intéressent tout de suite plusieurs instances à forte capacité de financement, telles que l’agence des projets de recherche avancée de la défense américaine (DARPA), Digital Equipment Corporation (DEC), ou bien International Business Machine (IBM ; Crevier 1997 [1993]). Les premiers chercheurs en intelligence artificielle – qui exercent la plupart du temps leurs fonctions au sein des grandes écoles et universités – ont donc rapidement été conduits à côtoyer des acteurs institutionnels et marchands. Dès le départ, les programmes informatiques qu’ils conçoivent ne permettent pas seulement de tester l’hypothèse fondamentale selon laquelle il est possible de reproduire matériellement l’intelligence du vivant : ils constituent aussi des technologies qui intéressent les décideurs.

17L’intelligence artificielle est une science coûteuse. Les scientifiques qui la fondent ont ainsi immédiatement compris que les laboratoires de recherche des écoles et des universités qui les emploient veulent recruter ceux qui disposent des meilleures réputations auprès de leurs pairs, mais aussi auprès des représentants politiques et économiques qui s’intéressent à l’intelligence artificielle (Crevier 1997 [1993] ; Rose 1986 [1984]). Par conséquent, ces pionniers ont dès le début conscience qu’ils peuvent constituer un des principaux facteurs facilitant la captation des financements. Ils savent également que, sans financement, il est difficile de s’engager sérieusement dans la course scientifique qui caractérise toute l’histoire de l’intelligence artificielle. Ils sont de cette façon amenés à articuler étroitement les enjeux de recherches fondamentale, appliquée, voire opérationnelle, jusqu’à endosser quelquefois le rôle de conseiller ou d’entrepreneur. En somme, une des plus importantes spécificités de l’intelligence artificielle est qu’elle fait partie des quelques disciplines académiques qui, dès ses origines, constitue des pratiques scientifiques que les milieux politico-économiques considèrent comme au cœur de la croissance des sociétés modernes ou, si l’on préfère, comme le moteur de ce qu’ils appellent le Progrès (Vayre 2016). Ainsi, pour une part non-négligeable des chercheurs qui l’exercent, l’intelligence artificielle est aussi une pratique économique au sens premier du terme dans la mesure où, dès les prémices, ils ont souvent été conduits, par exemple par le biais de la Rand Corporation, à jouer le rôle d’expert auprès des hauts responsables politiques et économiques, ou encore, à développer eux-mêmes des entreprises destinées à commercialiser les applications informatiques de leurs recherches, voire à travailler plus ou moins directement pour des grandes firmes internationales comme IBM.

18Ce constat permet de bien comprendre pourquoi, jusqu’au début des années quatre-vingt, les promesses fusent de la part des chercheurs en intelligence artificielle. Le problème est que les programmes informatiques issus de leurs travaux n’atteignent que rarement les performances espérées [5] (Cardon, Cointet & Mazières 2018), suscitant de profondes déceptions parmi les investisseurs. En outre, notamment par le biais des médias, les citoyens-consommateurs développent progressivement des craintes vis-à-vis de ces programmes qui semblent transformer l’ordinateur en un cerveau d’acier, ou encore une machine à penser (Vayre 2016). Au tournant des années quatre-vingt, des entreprises comme IBM se refusent ainsi à faire usage de la notion d’intelligence artificielle. Certaines sociétés vont même plus loin, notamment à Palo Alto, où elles ne veulent même plus prononcer les mots « système expert » (Crevier 1997 [1993]). L’intelligence artificielle ne s’arrête pas d’exister pour autant ! Car, comme le montre le cas de Patrick Winston qui, durant cette même période, est déjà directeur du laboratoire de sciences informatiques et d’intelligence artificielle de l’institut de technologie du Massachusetts (MIT SCAIL), les machines que ses collègues et lui conçoivent sont diffusées comme les raisins dans le pain [6] (Crevier 1997 [1993]) : elles sont logées au sein de programmes informatiques classiques, de façon à les enrichir de propriétés intéressantes sans pour autant que les investisseurs et le grand public ne puissent réellement prendre conscience de leur existence. La stratégie est efficace. Dès la fin des années quatre-vingt, la quasi-totalité des acteurs économiques et politiques ne parlent plus d’intelligence artificielle. Les investisseurs et les citoyens-consommateurs oublient cette notion et retrouvent ainsi confiance dans le numérique. Les affaires peuvent se réaliser sans trop d’entraves : à partir des années quatre-vingt-dix, la micro-informatique et les technologies de l’Internet se diffusent sans grandes difficultés au sein d’une bonne partie des sociétés du monde entier. Ce que l’on appelle alors les nouvelles technologies de l’information et de la communication (NTIC) sont pourtant bien souvent conçues à l’aide de programmes informatiques issus de l’intelligence artificielle. Internet en est un exemple parfait puisqu’il repose sur l’idée d’extension de la mémoire (par exemple memory extender ; MEMEX) qui est probablement un des plus anciens concepts d’intelligence artificielle [7].

19À l’heure actuelle, tout laisse penser que nous sommes collectivement en train de redécouvrir l’existence de l’intelligence artificielle, un peu comme si le mouvement big data que nous connaissons depuis dix ans avait fait resurgir, au moins en partie, la réalité empirique que désigne ce concept (Vayre 2016). Il ne faut toutefois jamais oublier que cette impression est en grande partie une construction médiatique. L’intelligence artificielle n’est pas morte entre les années quatre-vingt-dix et les années deux-mille. Durant ces deux décennies, cette sous-discipline des sciences informatiques a continué son chemin : les enseignants-chercheurs en intelligence artificielle ont poursuivi leurs carrières au sein de laboratoires parfois très dynamiques sur les plans scientifique et économique, ils ont continué à encadrer de nombreux doctorants qui ont soutenu des thèses reconnues par les institutions académiques, et les acteurs politiques et économiques n’ont pas cessé de financer, parfois grassement, les recherches réalisées dans ce domaine scientifique. En revanche, ces dix dernières années ont largement contribué à mettre l’intelligence artificielle au cœur des préoccupations des décideurs qui ont dû investir beaucoup de temps, d’énergie et d’argent en vue de créer un écosystème d’innovation favorisant la conception, l’implémentation et l’utilisation des applications technologiques issues de cette science (Vayre 2016). Le développement, par exemple, des Instituts interdisciplinaire d’intelligence artificielle (3IA) constitue une manifestation récente de cette tendance puisqu’ils ont bénéficié de plus de 200 millions d’euros pour organiser, sur le territoire français, la recherche, la formation et l’innovation dans le domaine de l’intelligence artificielle. Un tel phénomène social mérite d’être étudié et critiqué, notamment parce qu’il est au cœur de ce que Dominique Boullier (2016) qualifie de capitalisme numérique financier et qu’il est fortement teinté d’une croyance irrationnelle en l’efficacité de ce que Evgeny Morosov (2013) nomme le solutionnisme technologique.

20En somme, l’histoire externaliste de l’intelligence artificielle nous apprend que l’argument consistant à proclamer que l’intelligence artificielle n’existe pas a des origines anciennes et recouvre des intérêts politiques et économiques qui méritent d’être mieux identifiés et compris (voir Vayre à paraître). C’est la raison pour laquelle nous avons souhaité insister sur le fait que, d’une manière générale, le rôle du sociologue consiste moins, selon nous, à tenter de défendre cet argument faussement séduisant qu’à essayer, à l’inverse, de décrypter les dynamiques internaliste et externaliste de l’intelligence artificielle afin de mieux saisir ce qui se joue dans ces débats.

Conclusion

21L’intelligence artificielle existe ! Cependant, ce n’est pas une sorte de fluide cognitif qui grandit de façon autonome dans des puces de silicone, ni même, d’ailleurs, une technologie au sens strict du terme. C’est une science qui produit des connaissances par le biais de programmes informatiques qui ont dès le départ fait l’objet d’une mise en marché. Rappelons alors qu’en défendant cette idée, nous ne cherchons en aucun cas à discréditer les recherches menées dans le domaine de l’épistémologie normative et qui ont pour objet de discuter la validité et la valeur de cette sous-discipline des sciences informatiques. Affirmer qu’il est scientifiquement et socialement utile de s’intéresser à la manière dont s’est construite l’intelligence artificielle ne revient pas à dire qu’il faut préserver son existence dans le futur : si on soutient que l’intelligence artificielle est une science qui existe depuis la fin des années cinquante, on peut également imaginer que d’ici quelques décennies, l’intelligence artificielle n’existera plus comme discipline scientifique, dans la mesure où la société (et plus particulièrement la sphère académique) pourrait, à tort ou à raison, ne plus la reconnaître comme telle. En outre, notre propos ne consiste pas davantage à soutenir l’idée que les modélisations de l’intelligence proposées par cette discipline sont justes : elles appellent la critique, notamment parce qu’elles posent autant de problèmes épistémologiques et scientifiques que socioéconomiques, mais aussi parce qu’elles sont diffusées auprès du grand public comme des outils d’aide à la décision. Il s’agit plus humblement de souligner pourquoi les dynamiques internaliste et externaliste de cette discipline académique, aussi étranges soient-elles, méritent d’être mieux identifiées et comprises. Actuellement, les programmes informatiques issus de l’intelligence artificielle font l’objet d’une large diffusion au sein des diverses sphères de la société. C’est précisément pourquoi il nous semble urgent de pointer les limites de la posture radicale consistant à proclamer que l’intelligence artificielle n’existe pas : une pareille thèse apparaît effectivement peu efficiente, surtout lorsque l’on prétend se donner pour objectif d’éclairer les enjeux économiques, sociaux et humains associés à la diffusion des applications technologiques issues de cette science. Il serait, nous semble-t-il, beaucoup plus intéressant de travailler à mieux comprendre les modes d’existence de l’intelligence artificielle. Car ce n’est qu’à ce prix que l’on pourra formuler collectivement une véritable critique de l’intelligence artificielle – démarche indispensable si l’on veut maîtriser son développement.

Références

  • Austin, J. L. (1962) How to do things with words. Oxford : Oxford University Press.
  • Balandier, G. (2001) Le grand système. Paris : Fayard.
  • Boullier, D. (2016) Sociologie du numérique. Paris : Armand Colin.
  • Casilli, A. (2019) En attendant les robots. Enquête sur les travailleurs du clic. Paris : Le Seuil.
  • Cardon, D. (2019) Culture numérique. Paris : Les Presses de SciencesPo.
  • Cardon, D., Cointet, J.-P. & Mazières, A. (2018) « La revanche des neurones : l’invention des machines inductives et la controverse de l’intelligence artificielle », Réseaux, 5(211) : 173-220.
  • Crevier, D. (1997 [1993]) À la recherche de l’intelligence artificielle. Paris : Flammarion.
  • Dreyfus, H. L. (2019 [1965]) Alchemy and artificial intelligence. En ligne sur dspace.mit.edu : https://www.rand.org/content/dam/rand/pubs/papers/2006/P3244.pdf.
  • Joly, P. B. (2010) « On the economics of techno-scientific promises », in M. Akrich, Y. Barthe, F. Muniesa, &. P. Mustar (dir.), Débordements : Mélanges offerts à Michel Callon. Paris : Presses des Mines.
  • Ganascia, J. G. (2007) L’intelligence artificielle. Paris : Le Cavalier Bleu.
  • Gingras, Y. (2019) « L’intelligence sociologique confrontée à l’intelligence artificielle », Ateliers SociologIA. Montréal : Centre Interuniversitaire de Recherche sur la Science et la Technologie.
  • Grice, P. H. (1975) « Logique and conversation », in P. Cole, & J. Morgan (dir.), Syntax and semantics 3 : speech acts : pp. 41-58. New York : Academic Press.
  • Julia, L. (2019) L’intelligence artificielle n’existe pas. Paris : First.
  • Kant, E. (1869) Critique de la raison pure. Paris : Germer-Baillière.
  • Latour, B. (2012) Enquête sur les modes d’existence. Une anthropologie des Modernes. Paris : La Découverte.
  • McCarthy, J., Minksy, M. L., Rochester, N., & Shannon, C. E. (2019 [1955]) A proposal for the Dartmouth summer research projet on artificial intelligence. En ligne sur jmc.stanford.edu : http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf.
  • Morozov, E. (2013) To save everything, click here : the folly of tech nological solutionism. New York : PublicAffairs.
  • Newell, A., & Simon, H. A. (1956) « The logic theory machine : a complex information processing system », IRE Transactions on Information Theory(2) : 61-79.
  • Norberg, A. L. (2019 [1989]) An interview with Marvin L. Minsky. En ligne sur conservancy.umn.edu : https://conservancy.umn.edu/bitstream/handle/11299/107503/oh179mlm.pdf?sequence=1&isAllowed=y.
  • Papert, S. A. (2019 [1968]). The artificial intelligence of Hubert L. Dreyfus : a budget of fallacies. En ligne sur dspace.mit.edu : https://dspace.mit.edu/bitstream/handle/1721.1/6084/AIM154.pdf?sequence=2&isAllowed=y.
  • Rose, F. (1986 [1984]) L’intelligence artificielle : histoire d’une recherche scientifique. Paris : Payot.
  • Searle, J. R. (1995) The construction of social reality. New York : Free Press.
  • Searle, J. R. (1999) Mind, language and society. New York : Basic Books.
  • Si Ammour, D. (2019) « L’intelligence artificielle n’existe pas ». En ligne sur strategies.fr : https://www.strategies.fr/actualites/marques/4027180W/-l-intelligence-artificielle-n-existe-pas-lucjulia.html.
  • Simon, H. A. (1969) The Sciences of the artificial. Cambridge : M.I.T. Press.
  • Sperber, D. & Wilson, D. (1989) La pertinence. Communication et cognition. Paris : Minuit.
  • Turing, A. M. (1950). « Computing machinery and intelligence », Mind, 59 : 433-460.
  • Vayre, J.-S. (2016) Des machines à produire des futurs économiques : sociologie des intelligences artificielles marchandes à l’ère du big data. Toulouse : Université Toulouse Jean Jaurès.
  • Vayre, J.-S. (à paraître). « Intelligence artificielle : entre science et marché. Quelques éléments sociohistoriques pour mieux comprendre une étrange expérimentation scientifique (1956-1990) », Gérer & Comprendre.

Date de mise en ligne : 26/08/2021

https://doi.org/10.3917/dio.269.0107

Notes

  • [1]
    Rappelons en effet que Luc Julia est vice-président chargé de l’innovation chez Samsung et préfère, en ce sens, insister sur les « objets intelligents » conformément à la stratégie économique de l’entreprise qui l’emploie.
  • [2]
    Rappelons que John McCarthy, Marvin L. Minsky, Nathaniel Rochester et Claude E. Shannon en sont les organisateurs.
  • [3]
    Par exemple Sam Altman d’Open AI.
  • [4]
    C’est aussi le cas des travaux que Herbert A. Simon a effectué avec son collègue Allan Newell (1956) et qui lui ont par exemple permis de développer sa théorie de la rationalité limitée dont il est difficile de nier l’apport dans le domaine des sciences sociales.
  • [5]
    C’est ce que plusieurs auteurs nomment (e.g., Joly, 2010) « l’économie de la promesse », à savoir que les promesses, souvent non tenues, contribuent tout de même à donner de la valeur à telle ou telle technologie.
  • [6]
    Précisons que cette métaphore du pain aux raisins est de Patrick Winston (voir Crevier 1997 [1993] : 251).
  • [7]
    Rappelons que le MEMEX est une invention conceptuelle de Vannevar Bush ; elle a été reprise par les pionniers de l’Internet qui, soulignons-le, étaient également, au moins pour les plus importants d’entre eux, chercheurs en intelligence artificielle (voir Cardon 2019).

Domaines

Sciences Humaines et Sociales

Sciences, techniques et médecine

Droit et Administration

bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Retrouvez Cairn.info sur

Avec le soutien de

18.97.14.81

Accès institutions

Rechercher

Toutes les institutions