Réseaux 2021/5 N° 229

Couverture de RES_229

Article de revue

Pour une conception « située » de l’intelligence artificielle

Des interactions hybrides aux configurations socio-techniques

Pages 215 à 229

Notes

  • [1]
    Nous remercions chaleureusement Claude Rosental pour l’initiative et le travail d’organisation de cette journée d’étude autour du numéro 220-221 de la revue Réseaux, « Éthographies des Agents Conversationnels » le 7/12/2020 au CRFJ (CNRS-MEAE) (http://www.crfj.org/les-interactions-humains-robots/ Consulté le 29/06/2021). Les discussions passionnantes qui ont eu lieu à cette occasion nous ont donné envie d’écrire ce texte de rebond pour prolonger les réflexions et questions de recherches posées. Merci à tous les participants pour la qualité de cette dynamique collective et tout particulièrement à nos discutants Martin Chevallier, Sylvie Grosjean, Denis Vidal et Claude Rosental, ainsi qu’aux auteurs du numéro.
  • [2]
    Parfois, le label IA peut faire l’objet d’usages métonymiques par les chercheurs comme un moyen d’augmenter leurs chances dans la recherche de financements, selon les résultats d’une enquête collective en cours sur l’émergence des controverses sur l’IA menée par Anne Bellon et Julia Velkovska.
  • [3]
    Merci à Raja Chatilla d’avoir soulevé cette question du langage à la Journée d’étude et proposé de réfléchir à la pertinence d’une sorte de « manifeste langagier », une initiative linguistique claire pour inventer des termes qui distingueraient les machines des humains pour éviter l’ambiguïté.
  • [4]
    Merci à Sylvie Grosjean pour cette contribution aux débats sur le contexte lors de la Journée d’étude.

1S’il existe une littérature anglophone de plus en plus importante en sciences sociales sur « l’intelligence artificielle » (IA) et ses diverses déclinaisons, les publications francophones dans ce domaine sont encore trop rares. Rares sont également les études empiriques qui examinent les rapports à ces technologies dans des situations sociales réelles en dehors des expérimentations en laboratoire. Par ailleurs, les questionnements sur les aspects sociaux de l’IA sont trop souvent réduits à des considérations éthiques. De telle sorte que la formule « éthique de l’IA » a tendance à devenir un mot-valise, le pendant « social » en quelque sorte de ce que « l’IA » représente aujourd’hui dans le domaine technologique, où il est de plus en plus souvent utilisé comme métonymie. C’est dans ce contexte que le numéro 220-221 de la revue Réseaux ouvre une perspective de recherche nouvelle, tournée vers les pratiques sociales, en opérant un double déplacement. D’une part, il propose de se saisir de l’IA non pas comme catégorie générique couvrant en réalité des applications et des pratiques sociales d’une grande hétérogénéité, mais à travers une famille de dispositifs supposés l’incarner – les agents conversationnels – et qui fait sens du point de vue des pratiques des utilisateurs puisqu’ils sont amenés à parler à des machines. Cette perspective privilégie ce que les personnes et les collectifs font des technologies plutôt que les caractéristiques techniques des systèmes. D’autre part, le numéro souligne avec force l’importance que revêt l’observation des pratiques sociales concrètes au contact des agents artificiels pour comprendre les questionnements qu’ils soulèvent. Il réunit une collection d’ethnographies des agents conversationnels destinées à découvrir empiriquement ce qui est en jeu dans les relations humains-robots dans une variété de situations d’usages et de conception. La mise en commun de ces travaux éclaire différentes facettes de la relation humains-robots depuis une pluralité de perspectives analytiques et donne accès à de nouvelles questions de recherche. Nous souhaitons ici les explorer plus en avant en prolongeant les débats engagés lors de la Journée d’étude sur « Les Interactions Humains-Robots » [1] autour de trois acquis du numéro plus particulièrement. Le premier point interroge les possibilités de construire une perspective sociologique sur les technologies et les pratiques associées au label « IA ». Le deuxième point porte sur la relation humains-machines et les apports spécifiques des approches observationnelles. Enfin, le numéro, comme les débats issus de la journée d’étude qui a suivi, nourrissent des interrogations sur les outils conceptuels mis en place pour penser nos rapports avec les robots : mise en rapport, agencement ou configuration socio-technique.

Comment construire une perspective sociologique sur l’IA ? Artificialité, pratiques sociales et contexte

2Le terme « intelligence artificielle » a progressivement acquis une visibilité croissante sur les scènes médiatiques et scientifiques, mais aussi politiques et institutionnelles (notamment dans les stratégies de financement de la recherche [2]). Si les modalités mêmes de l’examen des conséquences sociales de la diffusion de ces technologies préoccupent de multiples acteurs, ces conséquences sont le plus souvent considérées depuis un point de vue éthique ou ontologique que ce soit dans les réflexions académiques ou au sein de commissions et de rapports publics consacrés à ces questions. Interrogeant les relations aux robots, Serge Tisseron (2020) fait, par exemple, l’hypothèse d’un effacement progressif de la distinction entre les humains et les machines parlantes. Lorsqu’on étudie leurs déclinaisons dans diverses situations sociales, comme le font les enquêtes réunies dans le numéro, il semble difficile de confirmer empiriquement ce type de constat, tant les articulations observées sont multiples. En effet apparaissent des configurations relationnelles plurielles, porteuses de mises en rapport et de collaborations heureuses, mais aussi d’ennui, d’ambivalences, de troubles et de difficultés directement liés à la technologie des agents conversationnels et aux différences qui les séparent des interlocuteurs humains. C’est pourquoi ces mises en rapports entre des humains et des machines méritent d’être explorées empiriquement plus en avant. D’ailleurs les sciences sociales investissent de plus en plus le champ de l’IA en mobilisant différents types de données et d’entrées analytiques, que l’on peut rassembler en trois catégories. La première entrée adopte un point de vue interne aux technologies de l’IA en mettant la focale sur la fabrication des bases de données d’apprentissage ou sur le fonctionnement des algorithmes (Benbouzid et Cardon, 2018 ; Benbouzid, 2018), en particulier sur les « biais » (Crawford, 2013) qu’ils peuvent introduire, pour finalement soulever des questions de discrimination, d’équité ou d’éthique. La deuxième entrée s’intéresse davantage aux conséquences de l’IA, qu’elles concernent le travail et des domaines professionnels spécifiques ou la structure même du capitalisme. Certains travaux portent par exemple sur les politiques publiques dans les domaines de la police et de la justice prédictives et pointent la résistance des professionnels aux usages des algorithmes (Brayne et Christin, 2020). D’autres études font apparaître une strate peu visible et mal reconnue de travail humain, à la fois indispensable à certains apprentissages « machine » et pourtant invisibilisé dans les comptes-rendus informatiques, comme « le travail du clic » (Casilli, 2019). Certains auteurs décèlent dans ces évolutions une transformation du capitalisme, devenu « capitalisme de plateforme » (Abdelnour et Bernard, 2018) ou « capitalisme de surveillance » (Zuboff 2020). Un troisième ensemble de travaux adopte une perspective socio-historique et de genre, par exemple en resituant les agents conversationnels dans le cadre de l’histoire sociale du travail féminin administratif, à travers la figure de la secrétaire (Lingel et Crowford, 2020) ou dans le contexte des transformations des relations domestiques et de la figure de la « femme au foyer » (Stengers et Kennedy, 2020).

3Les activités et les interactions situées avec les technologies de l’IA demeurent souvent dans l’angle mort de ce champ de recherche émergent. La proposition du numéro est de développer une perspective complémentaire d’étude de l’IA en s’inscrivant dans le paradigme de l’action située, formulée par Suchman : « Dans cette optique, les technologies sont constituées par les pratiques spécifiquement situées de leur utilisation et en sont indissociables » (Suchman, 1999, p. 399). En effet, les enquêtes ethnographiques sur les agents conversationnels montrent que ce pan des applications de l’IA, en partie basées sur des algorithmes de machine learning, soulève dans les faits des questions bien différentes, souvent complémentaires de celles déjà identifiées par les travaux portant sur les « biais des algorithmes » et les discriminations. Elles éclairent le champ des problèmes pratiques des utilisateurs face à un agent conversationnel : savoir quoi faire avec, comment le faire, juger ce que la machine est capable de faire ou pas, gérer les troubles dans l’interaction, faire face à des dysfonctionnements, adopter des manières de parler spécifiques pour accomplir une tâche (par exemple, obtenir une information ou payer une facture), ainsi que des questions liées à l’agentivité des robots et à leur potentiel de transformation des relations sociales dans la sphère privée ou professionnelle. De ce point de vue, les questions d’éthique ou d’anthropomorphisme semblent éloignées, même si on peut retrouver sur ce plan praxéologique la problématique de l’exclusion et de la discrimination par le biais des savoir-faire, car l’accès à un nombre croissant de services est conditionné à la maîtrise de l’art de parler à un agent artificiel. De même, la confusion entre les humains et les machines peut être examinée à travers ce type d’approche observationnelle.

4Ainsi, l’ambiguïté sur le statut ontologique de la machine peut émerger dans certaines situations hybrides, comme les appels téléphoniques traités par des leurres conversationnels (Relieu et al., 2020). Cependant, la tromperie émerge de la dynamique d’une activité particulière et ne peut être maintenue au-delà d’une durée limitée. Il convient alors d’appréhender le jugement sur l’artificialité des agents conversationnels comme le point d’aboutissement d’une analyse plutôt que comme son point de départ. Le portrait de l’activité qui en résulte est similaire à celui aperçu dans une image floue, qui s’éclaire progressivement à travers son examen empirique plutôt qu’à la vue immédiate d’une image de haute résolution, dont les caractéristiques s’imposeraient dès le départ. Cette perspective met en œuvre une forme radicale de pragmatisme, qui confère une épaisseur temporelle à l’activité et qui fait reposer sur son déroulement et son organisation la détermination progressive de ses propriétés. Pour l’ensemble de ces raisons, il ne nous semble pas souhaitable de produire une caractérisation a priori trop contraignante des phénomènes analysés. En effet, l’exercice de conceptualisation se réalise pendant l’analyse et la pertinence de telle ou telle caractérisation de ce qui est en jeu dans tel épisode d’une activité se révèle dans le processus de l’analyse. Ainsi, les descriptions auxquelles nous aboutissons sont liées, de façon réflexive, à ces analyses et ne deviennent pas autonomes. Apparaissent alors différentes caractérisations des rencontres entre agents artificiels et partenaires humains. Certaines se rapprochent, sans se confondre totalement, avec des interactions entre humains, notamment lorsque le partenaire humain tombe dans le filet d’un leurre et le traite pratiquement, à travers ses interprétations et ses répliques, comme il le ferait avec un humain du même type. Parfois, l’analyste dispose des traces informatisées du traitement que l’agent produit des énoncés humains reconnus par ses différents modules. L’analyste est alors à même de porter un jugement précis sur la façon dont la machine a pris en compte, ou ignoré un propos produit par un humain (Pitsch, 2020). Dans d’autres cas, l’analyse montre que l’utilisateur humain d’un système de traitement de requêtes (de type Alexa ou Google Home) est amené à adopter un type spécifique de conduite pour s’adresser à cet agent (par exemple, il se rapproche et adopte une prosodie particulière) tout en adaptant les procédures par lesquelles il traite les situations d’incompréhension avec ce type d’interlocuteur (Velkovska et Zouinar, 2020). À chaque fois, il revient de montrer précisément comment l’artificialité de l’un devient une caractéristique de la « situation » et d’évaluer comment l’organisation de cette situation s’apparente ou non à ce que l’on sait des activités interactionnellement organisées entre humains. En définitive, ces études parviennent à démontrer, sur la base d’argumentations ouvertes à la critique et basées sur des données rendues disponibles, par des transcriptions, les différentes acceptions pratiques de l’artificialité. De plus elles montrent comment ces différents « artifitialismes » se fondent dans des contextes divers : expérimentations de laboratoires, expérimentations écologiques, situations ordinaires de la vie courante, etc. En deçà des débats d’opinion sur la place des « agents artificiels », ces enquêtes situées pointent vers les déclinaisons pratiques de l’artificialité, les multiples manières dont elle peut s’insinuer dans les pratiques sociales en restant parfois à l’arrière-plan des activités ou bien en s’y révélant sous des aspects toujours nouveaux. À la façon des tableaux cubistes, les textes du numéro offrent des visions multiples de l’artificialité en contexte, sans viser une perspective unique qui serait capable de révéler la « véritable » nature de l’artificialité. Le flou qui est dissipé par ces études n’est jamais une ouverture vers une réalité indépendante ou sa représentation depuis un point de vue désincarné. La plus ou moins grande netteté de l’image finale qu’une enquête de ce type apporte est ancrée dans les mailles serrées de l’activité dont elle ressortit.

5Plusieurs éléments semblent alors indispensables à l’élaboration d’une perspective sociologique sur l’IA solidement ancrée dans des données d’enquête de différents types. Avant tout, la catégorie « IA » occulte la multiplicité des dispositifs, des pratiques et des contextes d’usages. Par exemple, l’entrée par les agents conversationnels a permis de s’intéresser aux usages des machines parlantes et aux attributions d’intelligence et de compétences, quelle que soit leur architecture technique. D’autres entrées peuvent être inventées pour examiner les conséquences sociales des technologies de l’IA depuis le point de vue des utilisateurs, de leurs catégorisations et pratiques sociales. Pour se déployer plus en avant, cette perspective doit se donner les moyens de penser les contextes d’inscription de l’IA à plusieurs niveaux – contextes d’interaction, contextes d’usages, contextes organisationnels, politiques et contextes socio-culturels – ainsi que de prendre en compte l’épaisseur sociale et culturelle des utilisateurs plutôt que de les traiter comme interchangeables (Rosental dans ce numéro ; Cassell, 2020).

Apprendre en observant : les formes des relations humains-robots

6Qu’est-ce qu’on apprend des relations entre humains et robots conversationnels en suivant des démarches ethnographiques ? En se positionnant sur le plan de l’observation des pratiques le numéro fait apparaître des questions et des phénomènes, peu visibles dans le champ de recherche émergeant sur l’IA, fortement investi pour le moment par des discussions éthiques. Sur cette base, il devient possible de rassembler les résultats pour saisir les formes des relations humains-robots en traversant les questions suivantes : leur complexité et leur diversité ; les différents degrés d’imitation de types variés de conversations ; les spécificités des interactions humains-robots et le travail de l’utilisateur ; la collaboration ; le contexte.

7Un premier résultat fort est de révéler la grande complexité et variété des relations réelles avec les robots, qui peuvent être marquées par l’enthousiasme, la créativité, mais aussi par la perplexité et la confusion ; ou même par une certaine banalité. Ces propriétés rendent les grandes catégories englobantes inopérantes. Les interactions peuvent être ludiques ou utilitaires, émotionnelles ou neutres, collectives ou individuelles. Si dans certains cas les robots arrivent à se faire passer pour des humains comme les leurres conversationnels (tels Eliza et Lenny, cf. Relieu et al., 2020), dans d’autres ils sont considérés comme des machines à qui on adresse des requêtes ou des commandes dans une relation instrumentale aux objets (tels Alexa ou Google Home, cf. Velkovska et Zouinar, 2020 ou le chatbot commercial, cf. Esteban, 2020). Dans d’autres cas encore, des registres intermédiaires sont mobilisés : l’agent est traité comme un partenaire interactionnel seulement à certains moments de l’interaction (Licoppe et Rollet 2020). Les robots conversationnels peuvent aussi jouer le rôle de camarade d’étude virtuel qui peut évoquer un comportement humain sans pour autant susciter d’ambiguïté quant à son statut de machine. Ce qui n’empêche pas l’établissement de « rapports de connivence » propices à l’apprentissage (Cassell, 2020). Les observations permettent ainsi de découvrir une pluralité des formes relationnelles entre les partenaires humains et les machines qui restent à explorer plus en avant dans d’autres contextes d’usages. Elles montrent que les interactions réelles sont bien loin des discours sur les agents artificiels comme porteurs de déshumanisation, qui seraient destinés à se substituer aux humains. Ils peuvent en effet susciter une gamme d’engagements variés : la fascination et l’attraction de groupes ou d’individus dans l’espace public (Pitsch, 2020 ; Rollet et Licoppe, 2020) ; le plaisir et l’amusement ; la gestion des troubles et des dysfonctionnements ; l’agacement et la colère ; mais aussi la gêne, l’ennui ou l’indifférence. Cette richesse des observations de terrain montre qu’il est nécessaire de procéder à des descriptions plus fines ouvertes à la complexité et aux variations si on veut comprendre ce qui se joue dans les relations humains-robots. Or les grandes catégories de l’anthropomorphisme, de la reproduction et de l’imitation des humains, de l’effacement de la frontière humains-non humains ou encore de substitution des humains par les robots tendent à occulter cette complexité.

8Le numéro permet également de reconsidérer la question de la reproduction de capacités humaines qui anime le champ de l’IA depuis ses débuts dans les années 1950. Cette ambition de départ semble aujourd’hui reconfigurée sur la base du constat de l’incapacité des machines à s’adapter au contexte tout en improvisant. D’ailleurs, la plupart des agents conversationnels actuels sont conçus non pas dans une visée de reproduction de la conversation humaine en général, mais dans le but d’intervenir dans des contextes précis avec un périmètre et des tâches limités. Le travail d’ajustement de la machine au contexte est alors massivement intégré aux pratiques de conception (Becker, 2020 ; Esteban, 2020), de sorte que l’agent conversationnel opère aussi une série d’ajustements entre les pratiques des utilisateurs et les représentations que les concepteurs se font de ces pratiques.

9Néanmoins, les interactions humains-robots reposent sur un travail d’adaptation considérable de la part des utilisateurs (Velkovska et Zouinar, 2020). Et c’est un autre acquis important du numéro de montrer à quel point il s’agit d’une caractéristique centrale et partagée au-delà de leur grande variété. Plusieurs enquêtes éclairent différentes facettes de ce travail qui restent souvent invisibles. En effet, très loin de la conversation humaine, ces interactions relèvent plutôt de « l’illusion » ou de « simulacre de conversation ». Paradoxalement, plus la machine est performante dans l’interaction, plus les personnes auront tendance à lui parler naturellement et à lui attribuer des compétences conversationnelles qu’elle n’a pas, ce qui conduit le plus souvent à l’échec de l’interaction (Velkovska et Beaudouin, 2014, Velkovska et Zouinar, 2020). Les interactions avec les agents conversationnels s’apparentent souvent à des interactions hybrides et asymétriques qui mêlent des éléments de la conversation humaine avec les éléments d’un langage de commandes à l’adresse des machines. Leur accomplissement repose massivement sur les efforts fournis par les partenaires humains pour parler aux machines, seuls ou en groupe, prenant dans ce cas en charge également le travail d’organisation de la participation collective (Pitsch, 2020). Ce point s’ouvre sur deux séries de questions : la première concerne la problématique de la coopération entre les humains et les machines, et la deuxième celle du contexte d’usage.

10Les machines peuvent-elles coopérer « comme des humains » ? Cette grande question des recherches sur l’IA peut être précisée à la lumière des enquêtes et des débats lors de la journée d’étude. Par exemple on peut se demander si le fait d’utiliser les mêmes termes (coopérer, collaborer, déléguer) pour décrire à la fois le comportement des machines et celui des personnes ne nous induit pas en erreur [3] ? Dans tous les cas il est nécessaire de penser ces coopérations dans leurs spécificités et leurs asymétries, en tenant compte des propriétés des interactions humains-robots et non sur le modèle de la coopération entre humains. Dans ce sens, Justine Cassell (2020) propose d’abandonner l’idée des machines autonomes telle qu’elle s’est imposée avec la tradition de l’IA forte et de renouer avec la tradition cybernétique à travers l’idée des machines coopératives et interdépendantes des humains. Ces machines sont appelées non pas à se substituer aux humains mais à faire équipe avec eux de façon pertinente selon les contextes d’usages.

11Enfin, les approches ethnographiques des agents conversationnels soulignent l’importance de la prise en compte des contextes d’usages pour comprendre les modes de leur insertion sociale. Il est nécessaire de faire une place centrale à cette notion à la fois pour la conception (et abandonner l’idée d’un agent conversationnel universel, cf. Becker, 2020) et pour l’analyse des pratiques (et abandonner les concepts globalisants). Pour ne donner qu’un exemple : si certaines familles acceptent de faire le travail d’adaptation de l’utilisateur pour se servir d’assistants vocaux à la maison, dans un contexte médical ces usages peuvent être rejetés par les patients, comme dans le cas des malades de Parkinson, une pathologie qui altère la voix [4].

Les configurations socio-techniques

12La réflexion sur les termes et les outils analytiques pour penser nos rapports aux robots était au cœur des débats de la journée d’étude. Claude Rosental pointe à juste titre la nécessité de la poursuivre à la lumière des résultats des enquêtes pour élaborer une sociologie des rapports aux robots, en interrogeant notamment la notion d’interaction. Cette notion soulève des questions, selon lui, car elle supposerait une symétrie et une homogénéité entre les humains et les robots, en plus du fait de s’inscrire dans une perspective individualiste. Si la problématisation de la notion d’interaction nous semble tout à fait pertinente pour le développement de ce champ de recherche, les arguments avancés méritent à notre sens une discussion, déjà engagée lors de la journée d’étude. Pour en esquisser quelques éléments, notons que les usages de la notion d’interaction varient selon les traditions théoriques et peuvent aussi contenir des rapports asymétriques entre des entités hétérogènes. C’est le cas des recherches en cognition distribuée (Hutchins, 1995) quand elles décrivent les interactions avec des objets, des instruments et des équipements divers. C’est également le cas du pragmatisme de Dewey avec la notion d’« interaction de l’organisme avec l’environnement » (Quéré, 2006). En analyse conversationnelle on désigne comme asymétriques différentes interactions institutionnelles ou de service manifestant une asymétrie des compétences, des droits et des obligations entre les participants, par exemple les interactions médecin-patient (Drew et Heritage, 1992 ; Arminen, 2005). De même, en fonction du cadre théorique mobilisé, l’interaction n’implique pas toujours une approche individualiste du monde social. Dans la perspective ethnométhodologique que nous mobilisons, l’interaction est au contraire le lieu d’accomplissement et de mise en visibilité de l’ordre social et en conséquence le site privilégié d’observation pour les paradigmes praxéologiques et situés.

13Nous rejoignons cependant le constat des limites de la notion d’interaction pour penser la complexité des situations, car les robots et les humains ne font pas qu’interagir ensemble stricto sensu. Si cette notion garde pleinement sa pertinence analytique pour certains cas d’usage, il est nécessaire de la dépasser afin de se donner les moyens de saisir la complexité et la variété des rapports humains-robots. Les exemples mentionnés par Claude Rosental qui ne correspondent pas à des interactions et à des collaborations sont à ce titre particulièrement parlants : les robots tueurs à visée destructive, le cas des démonstrations, des rapports humains-robots encadrés par des tiers, des rapports éphémères ou de simple coprésence, d’indifférence, d’ennui, ou encore d’évitement. La notion proposée de « mise en rapport » semble offrir une piste très intéressante pour traiter la variété des contacts entre les humains et les robots. Il nous semble pertinent de la mettre en résonance et de l’élargir davantage avec la notion de configuration sociotechnique proposée par Lucy Suchman, susceptible d’accueillir et de révéler la complexité des phénomènes observés.

14Les connaissances sur les interactions hybrides pointent de différentes façons vers de vastes ensembles sociotechniques, qu’il est parfois pertinent de prendre en compte pour développer une sociologie des relations humains-machine. Il est nécessaire de trouver des outils analytiques susceptibles de contenir non seulement les variations, mais aussi la complexité des dynamiques à l’œuvre dans ces relations qui mêlent des contextes d’usages avec leurs règles et normes de conduite spécifiques, des hypothèses des concepteurs sur ces contextes et sur le rôle que les robots pourraient y jouer, des discours présents dans l’espace public, des régulations juridiques et organisationnelles, des visées politiques, des agencements technologiques et des groupes humains. L’ensemble de ces éléments contribue à des formes de contact et de mises en rapport entre les humains et les robots susceptibles d’être analysés dans les termes proposés par L. Suchman. L’autrice suggère de penser nos relations aux machines « intelligentes » à travers les notions d’« agentivité » (machine agency), de « reconfiguration de la frontière humain-machine » (Suchman, 2007) et plus récemment celle de « configuration » comme « outil pour penser le travail de traçage des frontières qui délimitent de manière réflexive les objets technologiques » (Suchman, 2012, p. 48). Pour Suchman, la configuration est un dispositif analytique pour étudier les technologies par les articulations de leurs aspects imaginaires et matériels : « […] la configuration est un outil permettant d’étudier les technologies en accordant une attention particulière aux imaginaires et aux matérialités qu’elles réunissent, une orientation qui résonne également avec l’usage courant des termes pour désigner la réunion de divers éléments dans les pratiques de conception et d’ingénierie des systèmes » (Suchman 2012, p. 48).

15Le compagnonnage avec une telle notion de configuration peut se révéler fécond, comme par exemple dans la petite histoire d’une configuration sociotechnique centrée autour d’un certain type d’agents conversationnels, les leurres (Relieu et al., 2020). Les leurres conversationnels sont imbriqués au sein de telles configurations, solidaires de divers projets d’inscription et de redéfinition des frontières des humanités et des technologies, des projets de conception et des normes variées qui sont mobilisées pour évaluer les performances des agents, etc. Les leurres relèvent d’une tradition ancienne d’artefacts, qui remonte, au moins pour les agents conversationnels, au jeu de l’imitation imaginé par Alan Turing. Ce dernier a proposé de faire reposer la frontière entre humains et non-humains sur la réussite d’une épreuve pragmatique consistant à répondre à une série de questions épistémiques. Le jeu de l’imitation a non seulement suscité une littérature secondaire extrêmement riche sur les agents artificiels, l’intelligence et de nombreux autres sujets, mais il a également nourri une longue tradition de challenges, visant à déplacer ces frontières, à travers de nouvelles épreuves, l’élaboration de normes différentes destinées à juger la réussite des agents, etc. Les informaticiens qui ont participé à ces épreuves ont eux-mêmes développé ou adapté des technologies qui sont aujourd’hui intégrées aux dispositifs de traitement de l’information utilisés, parmi d’autres « briques » dans certains agents conversationnels (comme les avancées qui ont considérablement fait progresser la synthèse et la reconnaissance vocale).

16Tout en gardant un ancrage pragmatique, la notion de configuration sociotechnique semble un bon outil pour compléter, sous des modalités qui seront éclaircies par des études empiriques, celles d’interaction, de collaboration et de rencontre et penser les formes de mise en rapport, d’agencement, d’association, d’assemblage, d’accommodation entre les humains et les robots. Un outil dont la valeur heuristique mérite d’être mise à l’épreuve par des enquêtes complémentaires, qui viendront explorer de nouvelles questions et chantiers tels que l’histoire des configurations sociotechniques centrées sur les chatbots, l’agentivité des robots et leur potentiel de transformation des relations sociales au long terme, les contributions des différents types d’assistants numériques à l’augmentation de l’autonomie et des capacités d’action des personnes (par exemple dans des contextes de vulnérabilité ou d’apprentissage), les liens avec les questions de genre, les enjeux de vie privée liés aux données personnelles, pour n’en mentionner que quelques-uns. De ce point de vue, l’aventure ne fait que commencer…

Références

  • ABDELNOUR S., BERNARD S. (2018), « Vers un capitalisme de plateforme ? Mobiliser le travail, contourner les régulations », La nouvelle revue du travail, n° 13, [En ligne], disponible à l’adresse : http://journals.openedition.org/nrt/3797 (consulté le 29/06/2021).
  • ARMINEN I. (2005), Institutional Interaction. Studies of Talk at Work, Hants, Ashgate.
  • BECKER J. (2020), « Concevoir des machines anthropomorphes. Ethnographie des pratiques de conception en robotique sociale », Réseaux, n° 220-221, p. 223-251.
  • BENBOUZID B. (2018), « Quand prédire, c’est gérer : la police prédictive aux États-Unis », Réseaux, n° 211, p. 221-256.
  • BENBOUZID B., CARDON D. (dir.) (2018), « Les machines prédictives », Réseaux, n° 211.
  • BRAYNE S., CHRISTIN A. (2020), « Technologies of Crime Prediction: The Reception of Algorithms in Policing and Criminal Courts », Social Problems Online, [En ligne], Disponible à l’adresse : https://academic.oup.com/socpro/advance-article-abstract/doi/10.1093/socpro/spaa004/5782114 (consulté le 29/06/2021).
  • CASILLI A. (2019), En attendant les robots, enquête sur le travail du clic, Paris, Seuil.
  • CASSELL J. (2020), « Tisser des liens. L’interaction sociale chez les agents conversationnels », Réseaux, n° 220-221, p. 21-45.
  • CRAWFORD K. (2013), « Hidden biases in big data », Harvard Buisness Review, n° 4, [En ligne], Disponible à l’adresse : https://hbr.org/2013/04/the-hidden-biases-in-big-data# (consulté le 29/06/2021).
  • DREW P., HERITAGE J. (eds.) (1992), Talk at Work. Interaction in institutional settings, Cambridge, Cambridge University Press.
  • ESTEBAN C. (2020), « Construire la “compréhension” d’une machine. Une ethnographie de la conception de deux chatbots commerciaux », Réseaux, n° 220-221, p. 195-222.
  • HUTCHINS E. (1995), Cognition in the Wild, Cambridge (MA), MIT Press.
  • LICOPPE C., ROLLET N. (2020), « “Je dois y aller”. Analyses de séquences de clôtures entre humains et robot », Réseaux, n° 220-221, p. 151-193.
  • LINGEL J., CRAWFORD K. (2020), « “Alexa, tell me about your mother”: The history of the secretary and the end of secrecy », Catalyst: Feminism, Theory, Technoscience, 6(1), p. 1-25, [En ligne], Disponible à l’adresse : https://catalystjournal.org/index.php/catalyst/article/view/29949 (consulté le 29/06/2021).
  • PITSCH K. (2020), « Répondre aux questions d’un robot. Dynamique de participation des groupes adultes-enfants dans les rencontres avec un robot guide de musée », Réseaux, n° 220-221, p. 113-150.
  • QUÉRÉ L. (2006), « L’environnement comme partenaire », in Barbier J.-M éd., Sujets, activités, environnements : Approches transverses, Paris, Presses universitaires de France, p. 7-29.
  • RELIEU M., SAHIN M., FRANCILLON A. (2020), « Une approche configurationnelle des leurres conversationnels », Réseaux, n° 220-221, p. 81-111.
  • STENGERS Y, KENNEDY J. (2020), The Smart Wife. Why Siri, Alexa, and Other Smart Home Devices Need a Feminist Reboot, Cambridge, MIT Press.
  • SUCHMAN L., BLUMBERG J., ORR J., TRIGG R. (1999), « Reconstructing Technologies as social practice ». The American Behavioral Scientist, vol. 43, n° 3, p. 392-408.
  • SUCHMAN L. (2007), Human-machine reconfigurations: Plans and situated actions (second edition), Cambridge University Press.
  • SUCHMAN L. (2012), « Configuration », in Lury C. et Wakeford N. (eds), Inventive Methods. The Happening of the Social, London, Routledge, p. 48-60.
  • TISSERON S. (2020), L’emprise insidieuse des machines parlantes, Paris, Les Liens qui libèrent.
  • VELKOVSKA J., BEAUDOUIN V. (2014), « Parler aux machines, coproduire un service. Intelligence artificielle et travail du client dans les services vocaux automatisés », in Kessous, E. et Mallard, A (dir.), La Fabrique de la vente, Paris : Presses des Mines, p. 97-128.
  • VELKOVSKA J., ZOUINAR M., (2020), « Les relations aux machines “conversationnelles” : vivre avec les assistants vocaux à la maison », Réseaux, n° 220-221, p. 47-79.
  • ZUBOFF S. (2020), L’âge du capitalisme de surveillance, Paris, Zulma.

Mots-clés éditeurs : Intelligence Artificielle, observation, ethnographie, agents conversationnels, agencements, sociologie, configuration socio-technique

Date de mise en ligne : 25/11/2021

https://doi.org/10.3917/res.229.0215

Notes

  • [1]
    Nous remercions chaleureusement Claude Rosental pour l’initiative et le travail d’organisation de cette journée d’étude autour du numéro 220-221 de la revue Réseaux, « Éthographies des Agents Conversationnels » le 7/12/2020 au CRFJ (CNRS-MEAE) (http://www.crfj.org/les-interactions-humains-robots/ Consulté le 29/06/2021). Les discussions passionnantes qui ont eu lieu à cette occasion nous ont donné envie d’écrire ce texte de rebond pour prolonger les réflexions et questions de recherches posées. Merci à tous les participants pour la qualité de cette dynamique collective et tout particulièrement à nos discutants Martin Chevallier, Sylvie Grosjean, Denis Vidal et Claude Rosental, ainsi qu’aux auteurs du numéro.
  • [2]
    Parfois, le label IA peut faire l’objet d’usages métonymiques par les chercheurs comme un moyen d’augmenter leurs chances dans la recherche de financements, selon les résultats d’une enquête collective en cours sur l’émergence des controverses sur l’IA menée par Anne Bellon et Julia Velkovska.
  • [3]
    Merci à Raja Chatilla d’avoir soulevé cette question du langage à la Journée d’étude et proposé de réfléchir à la pertinence d’une sorte de « manifeste langagier », une initiative linguistique claire pour inventer des termes qui distingueraient les machines des humains pour éviter l’ambiguïté.
  • [4]
    Merci à Sylvie Grosjean pour cette contribution aux débats sur le contexte lors de la Journée d’étude.

Domaines

Sciences Humaines et Sociales

Sciences, techniques et médecine

Droit et Administration

bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Retrouvez Cairn.info sur

Avec le soutien de

18.97.14.83

Accès institutions

Rechercher

Toutes les institutions