Couverture de RES_220

Article de revue

Construire la « compréhension » d’une machine

Une ethnographie de la conception de deux chatbots commerciaux

Pages 195 à 222

Notes

  • [1]
    « Zuckerberg announces Facebook Bots for Messenger », CNN Business, 13 avril 2016, disponible sur : https://www.youtube.com/watch?v=SN-Lz-DpBwc, consulté le 22 mai 2018.
  • [2]
    « Bots for Workplace: Building bots for Workplace in groups and Chat », Facebook for developers, 2019, disponible sur : https://developers.facebook.com/docs/workplace/integrations/custom-integrations/bots, consulté le 22 mai 2018.
  • [3]
    « Chatbots : quand le service client se robotise », 30 juillet 2018, [émission de radio] France Inter, Société, Paris, France : Radiofrance, disponible sur : https://www.franceinter.fr/societe/chatbots-quand-le-service-client-se-robotise, consulté le 3 mars 2020.
  • [4]
    Application Programming Interface – interface de programmation.
  • [5]
    Le Traitement Automatique du Langage ou Natural Language Processing (TAL) en anglais, vise à comprendre et traiter le langage naturel via des outils linguistiques et informatiques, à des fins opérationnelles telles que la traduction automatique, ou encore la correction orthographique automatique.
  • [6]
    Les assistants vocaux font appel au même type d’outils que les chatbots, ceux-ci requièrent en complément un module « speech to text » afin de transcrire la parole orale en texte écrit. Si ces dispositifs sont en principe similaires aux chatbots, ils sont cependant inexistants sur les sites de marques et les réseaux sociaux, au moment de l’écriture de l’article.
  • [7]
    Les plateformes de développement de chatbots sont des interfaces préconçues de création, qui intègrent un tableau de bord et une solution de traitement du langage naturel. Ces plateformes ont la particularité de s’adresser à un public de concepteurs large, n’ayant pas nécessairement de compétence en programmation informatique.
  • [8]
    Les expériences d’usages sont réalisées auprès de clients professionnels ayant une petite ou moyenne entreprise ; ces expériences consistent à mettre les clients en situation orientée d’utilisation du dispositif (parler au chatbot, lui demander une information qu’il est censé pouvoir donner).
  • [9]
    Nous évoquerons dans cet article uniquement la solution utilisée par le projet Bot1.
  • [10]
    Les noms de métiers sont féminisés en fonction du genre des individus, afin de rendre compte de la représentation des femmes dans les deux équipes projets.
  • [11]
    Personne chargée de penser la prise en main du dispositif par les usagers.
  • [12]
    Personne chargée de recueillir et d’analyser les commentaires et les réactions des clients sur les réseaux sociaux de la marque.
  • [13]
    Personne chargée de penser les messages de la marque sur internet et les réseaux sociaux (à l’inverse du community manager, cette personne ne gère pas les échanges en temps réels).
  • [14]
    Personne chargée de gérer les arbres de dialogues dans la plateforme de développement utilisée.
  • [15]
    L’« expérience client » fait référence, en marketing, à l’expérience vécue par les clients avec la marque.
  • [16]
    Microsoft a ainsi fait appel à Jonathan Foster, scénariste, pour écrire la « personnalité » de Cortana, son projet d’assistant conversationnel. https://www.businessinsider.fr/jonathan-foster-faconne-la-personnalite-de-cortana-assistant-intelligent-microsoft, consulté le 3 mars 2020.
  • [17]
    Ici concernant le projet Bot1, l’entreprise prestataire décrit dans son mode d’emploi que sa solution combine l’utilisation de l’algorithme TF-IDF et de l’algorithme hongrois. Ces algorithmes sont utilisés, par exemple, dans certains moteurs de recherche pour hiérarchiser le poids des mots et trouver les termes les plus pertinents pour évaluer le sens d’une requête en langage naturel. Cependant, la visualisation des calculs effectifs de détection d’intention sont inaccessibles aux clients, ce qui ne permet pas une prise en main totale de l’outil (les concepteurs-usagers n’ont pas accès aux modalités de calcul des scores, ce qui les empêche d’en comprendre entièrement les facteurs et d’anticiper le fonctionnement de l’outil).
« On ne devrait même pas dire qu’il comprend, ce n’est pas de la compréhension. En fait, on devrait trouver un autre terme. »
Élodie, 22 ans, développeuse informatique sur le projet Bot1, 2018

1En juin 2016, Mark Zuckerberg annonçait l’ouverture d’une interface de programmation sur la messagerie instantanée de Facebook, Messenger[1] : cette ouverture allait permettre aux développeurs externes de créer massivement des « chatbots » sur le réseau social [2]. La tendance des chatbots fut rapidement suivie par d’autres réseaux sociaux et applications mobiles de messagerie telles que Skype, Telegram, ou encore Slack, ainsi que sur certains sites internet de marques ou de services [3]. Ces « robots » numériques sont programmés pour répondre instantanément à des questions simples, sur des interfaces de tchat ; ceux-ci intéressent rapidement les marques, qui y voient une nouvelle opportunité d’entrer en contact avec les internautes à moindre coût. Les chatbots doivent alors leur popularité à l’effet d’une double démocratisation : d’une part, une tendance des réseaux sociaux à permettre le développement de chatbots via leurs API [4], d’autre part, l’apparition d’outils « clés en main » tels que des plateformes de développement de chatbots, qui intègrent en elles-mêmes une solution TAL [5] et un tableau de bord a priori accessible à des non-développeurs. Dans ce contexte, un marché des agents conversationnels se développe entre 2016 et 2017, touchant en particulier l’univers des entreprises (relation-client, marketing, RH…). Les interfaces conversationnelles (textuelles pour les chatbots, vocales pour les assistants conversationnels [6]) envisagent toutes le modèle de la conversation non plus comme un outil de communication, mais comme un média en soi : l’automatisation des « conversations » est alors perçue par les marques comme un moyen d’interagir avec les internautes à grande échelle. Les chatbots semblent faire la promesse de conversations personnalisées et illimitées ; cependant, les outils de conception utilisés sont limités, en particulier du fait qu’ils nécessitent tous un travail préalable d’enrichissement du vocabulaire et de scénarisation des échanges. Assurer l’intercompréhension entre un utilisateur et une machine nécessite alors un travail permanent de surveillance, de cadrage et de réajustements du script d’usage, car l’automatisation ne s’applique qu’à la détection du sens d’une phrase. De plus, les outils utilisés sont souvent issus de prestataires externes, et apparaissent comme des boites noires pour les équipes projet, qui n’ont pas la main sur le fonctionnement des algorithmes à l’œuvre. Dans ces conditions, comment les concepteurs de chatbots parviennent-ils à générer des formes d’interactions langagières ? Quels problèmes rencontrent-ils en pratique pour réguler ces échanges, et quelles sont les stratégies mises en place pour y remédier ?

2Pour répondre à ces questions, nous nous intéresserons au travail de création et de mise en production de deux agents conversationnels au sein d’une grande entreprise française de télécommunication, en nous focalisant sur le travail des concepteurs ainsi que sur leurs outils. Dans le contexte d’une démocratisation de la production des chatbots, nous entendons par « concepteurs » la multitude d’acteurs inclus dans les projets de conception de chatbots : il s’agit donc d’une notion large, qui englobe à la fois les développeurs informatiques, les designers, et les autres profils métiers (business, communication…) directement impliqués dans le projet. Avec la diffusion des plateformes de développement [7], la création de chatbots est en effet rendue accessible à une diversité d’acteurs : comme nous le verrons, leur élaboration n’est pas exclusivement réservée aux métiers de l’informatique.

3Nous suivrons différentes étapes de conception d’un chatbot : la création d’un personnage, la scénarisation des thématiques d’échange, la construction de bases de données lexicales, puis la supervision continue du système, qui est réadapté selon les situations réelles d’usages. En cela, nous rejoignons la démarche de description employée par Jérôme Denis à propos du « travail invisible des données » (Denis, 2018), consistant à montrer les opérations d’arrière-plan de production des données, opérations insoupçonnées et souvent dévaluées de traitement des informations. Si l’invisibilité et l’absence de reconnaissance du travail d’arrière-plan (Star et Strauss, 1999) sont ici toutes relatives – les « petites mains » ne font pas l’objet de sous-traitance ni d’un travail précaire dans les projets observés (Tubaro et Casilli, 2019) – la description des activités relatives à l’enrichissement et au fonctionnement d’un chatbot font néanmoins partie intégrante de cet objet technique que nous proposons d’étudier (Akrich, 1987 ; 2006). Cette description du travail de conception de deux agents conversationnels nous conduira finalement à questionner les modalités d’automatisation du dialogue marchand : nous verrons que les concepteurs se trouvent régulièrement pris en tension entre le projet d’industrialisation des dialogues automatiques et celui de concevoir des conversations personnalisées, adaptées au langage et aux besoins spécifiques des usagers.

Méthode

4Les chatbots marchands développés en 2019 nécessitent tous un travail manuel d’élaboration des connaissances afin de rendre le modèle de Traitement Automatique du Langage (TAL) opérationnel. Ainsi, si les chatbots invitent leurs utilisateurs à interagir dans un langage de tous les jours, ceux-ci ne peuvent le faire qu’à condition de traiter des cas très précis sur lesquels les bases de connaissances sémantiques et métiers sont suffisamment renseignées. Pour comprendre la scénarisation et la mise en production d’un agent conversationnel, nous avons enquêté auprès d’une grande entreprise française de télécommunication pendant 6 mois : nous appellerons cette entreprise « Telco ». Cette investigation a donné lieu à une ethnographie, réalisée grâce une série d’observations effectuées entre novembre 2017 et juillet 2018 sur deux projets de chatbots (annexe 1, tableau 3. Récapitulatif des observations).

5Ces observations se sont déroulées d’une part sur le plateau technique dédié au développement d’un chatbot commercial implémenté sur le site de vente de l’entreprise (« Bot1 »), d’autre part sur le suivi d’un chatbot d’assistance mis en production quelques mois plus tôt, implémenté sur le portail d’accueil des clients professionnels (« Bot2 »). Le premier projet observé, « Bot1 », recouvre la volonté d’accompagner les utilisateurs sur le site de vente « Telco mobile », et ainsi d’aller à la rencontre de potentiels clients dont les questionnements laissés en suspens pourraient bloquer le parcours d’achat. Le second projet observé, « Bot2 », consiste à aider les clients professionnels de la marque à retrouver des informations relatives à leur compte-client professionnels. L’observation se déroule après la mise en production, dans un contexte de retours d’usages : les concepteurs cherchent à comprendre si les usagers parviennent à se saisir du dispositif, au moyen de situations expérimentales d’usage filmées [8]. Si nous avons contacté les deux équipes à des moments différents de leur développement, le premier projet nous a permis de rendre compte des étapes préliminaires à la production, tandis que le second projet nous a plutôt permis de suivre l’évolution du système au début de sa mise en production.

6Les deux projets utilisent des plateformes de développement différentes, mais identiques dans leur principe de fonctionnement : il s’agit dans les deux cas d’injecter des connaissances (créer des modèles d’échanges et des bases sémantiques) et de recadrer le dispositif par une surveillance continue des historiques de dialogues [9].

7Les observations portent sur les échanges entre membres des équipes (les phases de discussions et de débats dans les espaces de travail) et leurs supports, plutôt que sur le travail individuel de chacun. Pour faciliter la représentation du travail de chaque acteur, et parce que notre recherche porte moins sur des spécificités de métiers du chatbot que sur les moyens de leur conception, nous proposons un récapitulatif des rôles de chaque profil dans les deux projets (annexe 2, tableau 4. Tâches spécifiques et profils impliqués). Si certains profils métiers sont chargés de tâches spécifiques, les deux projets ont en commun de faire appel à tous les membres de l’équipe concernant des tâches plus générales (par exemple, le travail de relecture des historiques de dialogues, ou l’écriture des bases sémantiques, qui ne nécessitent pas de compétences métiers particulières). Les deux projets s’inscrivent dans la méthode de management « Agile », une forme d’organisation du travail flexible issue de l’industrie des logiciels (Ughetto, 2018). Ces sessions d’observations sont complétées par 10 entretiens semi-directifs menés auprès d’acteurs en charge de développement d’agents conversationnels au sein de l’entreprise, ainsi que par un accès aux logiciels et fichiers utilisés par les deux projets de chatbot.

Tableau 1

Profils des concepteurs[10] et compositions des équipes au moment de l’observation

Équipe projetProfils métiers
Bot 1
(pré-production)
Univers : Marketing et relation-client, destination grand public (clients et prospects)
1 responsable du projet (homme)
1 rédactrice
1 designeuse UX [11] (expérience usager)
3 développeurs
1 stagiaire développeuse
Bot 2
(début de production)
Univers : Relation-client, à destination des clients pro de la marque
1 responsable du projet (femme)
1 chargée « voix du client [12] »
1 chargée de communication sur les réseaux sociaux [13]
1 designer graphique
1 stagiaire développeuse
2 développeurs
1 architecte cognitif [14] (formation développeur)

Profils des concepteurs[10] et compositions des équipes au moment de l’observation

Source : auteure

Les attentes marketing des chatbots

8Autour de quel récit un chatbot peut-il être introduit comme projet marketing ? Au début du mois de décembre 2017, nous rencontrons Nicolas, chargé de communication sur le projet Bot1, dans l’objectif de retracer le récit initial du projet.

9

« (…) On s’est rendu compte que c’était la boutique mobile la plus intéressante, parce qu’on voyait qu’il y avait une baisse des ventes. Et en creusant, on s’est rendu compte que les gens ne trouvaient pas leur réponse… Et que comme ils ne trouvaient pas leur réponse sur les sites, (alors que pourtant elles y sont) ils passaient beaucoup de temps dessus, et ils avaient une grande tendance à appeler le service-client, à passer en boutique, pour parfois poser des questions qui avaient pas vraiment de bon sens. En fait c’est des questions qui n’ont pas une grande plus-value, pour le service-client, (…) et au final ça générait un coût alors que ça pouvait être facilement contournable, puisque, l’information, elle est sur le site. (…) L’avantage d’un bot, c’est que c’est dispo 24h/24. Si t’as une question dite un peu simple, un peu basique sur l’assistance de Telco, etc., on est capable de lui répondre directement, et si ça se trouve, de faire une acquisition sur un créneau qui est pas ouvré par le service-client. »
Nicolas, responsable communication du projet Bot1, 2017

10L’histoire racontée par Nicolas est donc celle d’un « vide » marketing (les clients « passent beaucoup de temps » sur le site avant d’appeler) : seuls face à leurs interrogations, les « prospects » (terme issu du marketing pour désigner les clients potentiels) ne s’engageraient pas davantage dans un parcours d’achat et abandonneraient leur démarche. Par exemple, un sujet tel que celui de la portabilité (garder son numéro tout en changeant d’opérateur) peut entraîner la crainte d’être injoignable pendant deux ou trois jours, ce qui rend certains clients perplexes face à l’éventualité de changer d’opérateur et de téléphone… « Alors qu’en réalité, la portabilité s’effectue le jour même du changement d’opérateur. C’est un point anxiogène », explique ainsi François, le chef de projet Bot1. Le script du chatbot est donc pensé comme un discours informatif et rassurant pour le consommateur : « Telco s’occupe de tout », dit le slogan de la marque ; le client n’a rien à faire, pas de papiers à remplir ni de contrats à résilier. Le dispositif participe d’un discours sur la facilité et la transparence, là où le processus de souscription pourrait ne pas être clair pour les clients. Ici, la présence marchande ne consiste pas uniquement à acheminer les ventes, mais à lever la suspicion et à rassurer ces clients potentiels en leur délivrant une réponse instantanément. Implicitement, le rôle du chatbot n’est donc pas uniquement informatif, il est également affectif, dans la mesure où il doit rassurer des clients ou des prospects. De son côté, l’équipe projet du chatbot d’assistance Bot2, souligne la préoccupation de « désengorger » le service-client des questions sans « plus-value » (c’est-à-dire, sans valeur commerciale), des demandes d’informations très simples qui font pourtant l’objet d’appels vers des opérateurs humains (par exemple obtenir un code PUK pour débloquer son téléphone). Là aussi, une remarque est soulevée sur le fait que les informations recherchées par les clients sur le site internet ne sont pas toujours trouvées.

11Le développement d’un chatbot, ici, ne répond donc pas seulement à une réduction du coût humain d’assistance ou de vente (puisque les cas d’usages des chatbots sont très limités), mais à un manque de présence marchande sur un site internet ou une application marchande ; à une « amélioration de l’expérience client » [15], pour employer les termes couramment entendus. Ainsi, Bot1 et Bot2 apparaissent tous les deux comme une sorte de projet de vendeur et de conseiller « virtuels » dont les fonctions limitées à des tâches spécifiques sont compensées par le design conversationnel ; c’est-à-dire le fait de pouvoir interagir automatiquement dans le format du dialogue.

Automatiser la parole, industrialiser le dialogue marchand

12Au-delà du cas des chatbots, le dialogue est un thème classique de la rencontre marchande, comme le montre Michel Callon (Callon, 2017, pp. 267-315) : « Pour le vendeur, la manière la plus simple d’engager le processus d’attachement est de convaincre le consommateur potentiel que le bien proposé correspond à ce dont il a besoin (…). » Le dialogue constitue ainsi un moment d’interconnaissance qui permet de lier deux acteurs à la scène marchande ; elle est une situation d’interaction clé de mise en relation, d’autant plus qu’elle concerne à la fois deux personnes et deux parties. La question que posent les chatbots est donc bien liée à ce moment d’interaction entre une marque et son client ou son prospect : pour chercher à capter leurs clients (Cochoy, 2004), les entreprises tentent de leur adresser la parole par divers moyens de communication. En ce sens, le dialogue instauré par la marque participe à agencer l’attachement marchand (Callon, 2013 ; Cochoy, Deville et McFall, 2017), et s’inscrit dans la lignée des dispositifs de rencontre entre une entreprise et ses clients.

13À l’échelle industrielle, ces interactions font l’objet d’une rationalisation des échanges, avec par exemple une standardisation progressive des méthodes et des outils du marketing : CRM (Customer Relation Management), one to one, conseil… Des instruments et des outils de recueil de données se développent dans l’optique de mieux connaître les clients, de manière systématique et massive (Benedetto, 2003). Faire connaissance avec les clients permettrait ainsi de pouvoir mieux saisir et anticiper leurs attentes, les orienter vers des offres personnalisées (Vayre, 2013), ou encore placer des solutions (Licoppe, 2006). Ces outils marketing tendent aussi à sauvegarder des traces d’interactions, à moindre coût, et ce par l’intermédiaire de différents canaux de communication (Kessous, 2011 ; Vayre, 2013). Le domaine du service client mobilise ainsi différents médias qui permettent de capter (Cochoy, 2004) et de surveiller les clients sur ces canaux d’interactions : le télémarketing en fait partie, mobilisant la prospection par téléphone, mais nous pourrions également y ajouter les services mails ou les FAQs, ou encore les systèmes de cartes de fidélité (Coll et Lyon, 2015). Sur les réseaux sociaux, l’activité de community manager, qui consiste à professionnaliser les activités d’échanges entre marques et followers, incarne bien cette volonté de contact continu avec les internautes sur internet (Jammet, 2017 ; Velkovska, 2015).

14Les méthodes relationnelles en marketing suivent un processus de rationalisation passant à la fois par la formation des opérateurs humains, l’informatisation de leurs outils, pour nous amener enfin à la question de l’automatisation de certaines tâches. Ainsi, les centres d’appels sont des lieux où chaque conversation avec un client est mesurée, où l’activité des opérateurs et les arborescences de réponses possibles sont étudiées et perfectionnées selon des modèles rationnels (Mallard, 2002) : les conversations sont chronométrées et surveillées (Chaulet, 2006). Les opérateurs sont également formés à reconnaître des « types de clients » et à répondre en fonction de cette typologie. Le travail de relation-client est donc encadré par des standards d’interactions, standards constitués à partir de représentations archétypales des clients, à contre-courant de la compréhension « silencieuse » des travailleurs du service en contexte d’interaction, tel que décrit par Zarifian (Zarifian, 2007).

15Le processus d’automatisation du service-client à distance n’est donc guère nouveau, puisqu’il apparaît déjà dans la sphère du télémarketing avec les centres d’appels et les serveurs vocaux interactifs (Cihuelo, 2010 ; Velkovska et Beaudouin, 2014). Rationalisation de la gestion des appels, ou automatisation des systèmes de réponses : prendre en charge un grand nombre de clients à moindre coût, en peu de temps et de manière « personnalisée », apparaît comme un défi de longue date, un projet sans cesse réactualisé par l’idéal de la stabilité à faible coût qu’offrent les machines, prolongeant les processus de rationalisation et d’informatisation déjà à l’œuvre dans la prise en charge humaine de la relation-client. Les agents conversationnels se placent précisément dans cette tension entre projet d’industrialisation de la relation marchande, et personnalisation de l’interaction, remettant en question le monopole des humains dans le domaine du travail relationnel. En ce sens, les chatbots s’inscrivent dans la lignée des dispositifs numériques marchands, et se présentent comme des intermédiaires inédits : ni humains, ni entièrement machines (Boullier, 1996), ils invitent leurs concepteurs à réfléchir sur leurs modalités d’interactions, ainsi que sur leur manière de produire une forme d’attachement marchand en dépit de leur disposition ambiguë, à la fois automates et énonciateurs.

La proposition d’un cadre d’interaction

« Bonjour, je suis le chatbot de Telco »

16Dans le domaine de la relation-client les automates ne font pas toujours bonne figure, comme l’illustre bien le pénible répondeur automatique, qui exige plusieurs opérations de choix mécaniques avant d’obtenir une réponse adéquate. La figure de l’automate, jugée trop froide, n’a donc pas l’avantage pour ce qui est de l’échange langagier ; les automates conversationnels sont d’ailleurs plutôt évoqués comme des robots, des « chatbots » ou des « bots », et non comme des automates. Le « robot » constitue une entité à part, un objet personnifié par les soins des designers : donner un nom, une tonalité de discours ou encore des emojis et des gifs, sont autant d’indices de personnification, c’est-à-dire de scénarisation d’un sujet énonciateur. Les concepteurs imaginent en tout premier lieu un personnage, et non une interface : cette tendance est confirmée par la présence de scénaristes [16], ou de romanciers dans certaines équipes de conception d’agent conversationnel, en charge d’imaginer de nouveaux modes d’interactions. Telco mobilise ainsi une équipe de designers au sein de laquelle deux écrivains interviennent en qualité d’experts à propos des réponses de l’assistant conversationnel de la marque : un robot doit-il sans cesse s’excuser quand il bugge souvent ? Par quels mots doit-il le faire pour ne pas générer un rapport de servitude excessif ? Quelle pourrait être la norme d’usage dans ce genre de situation ? Les questions posées lors de ces réunions de design montrent que ce qui est en jeu est bien l’imagination de nouvelles normes, de nouveaux consensus d’interactions à négocier avec les utilisateurs. Une part du travail de conception consiste donc à élaborer un personnage pertinent pour la fonction du système, mais également cohérent avec l’univers de la marque. « L’identité (du chatbot) : sa forme graphique, son mode d’expressivité, sa voix, les sons qu’il pourrait émettre… Du coup, effectivement, ça veut dire définir une personnalité. » Marc, designer Telco, 2017

17L’identité du personnage, les caractères qu’on lui attribue ou qu’on souhaite écarter, sont la cible de choix de design et de débats dont l’intérêt sous-jacent est de trouver des « bonnes » et des « mauvaises » pratiques de développement. Toutes ces pratiques concourent à la construction d’une sorte de « face », notion à l’origine développée par Erving Goffman (Goffman, 1974) permettant de comprendre le déroulement des interactions entre individus dans l’espace public. Ces efforts de construction d’une « face » de l’agent conversationnel s’inscrivent dans une volonté plus large qui consiste à cadrer les interactions à venir, en plaçant le dispositif dans une posture subjective. Dans le même temps, les concepteurs rejettent d’emblée l’idée d’instaurer une sorte de « piège » anthropomorphique aux usagers : il s’agit de ne pas laisser planer le doute sur la nature du robot, ce qui pourrait entraîner une trop grande attente des usagers vis-à-vis du dispositif. Les deux chatbots engagent ainsi le dialogue en se présentant immédiatement comme des « bots », avec des fonctionnalités spécifiques (donner des informations sur des thématiques précises). C’est donc en termes de « design d’expérience » que les concepteurs imaginent la création d’un personnage (coordonner les différentes prises de paroles entre chatbot et usagers), puisqu’il ne s’agit pas de leurrer les usagers sur leur interlocuteur. « La moindre des choses c’est quand même de savoir dire bonjour-au revoir. Il en faut, du social. “Bonjour-merci-au revoir”, c’est le minimum nécessaire. C’est pas du social étendu, mais c’est le minimum. » Julie, UX designer, Bot1, 2018

18En effet, si les utilisateurs ne sont pas dupes du système technique auquel ils ont affaire, les scripts d’usages les placent toutefois dans une position de dialogue incontournable, imitant les codes de la conversation, sans toutefois en tenir toutes les promesses. Cette restitution partielle des codes de la conversation (ouvrir et fermer le dialogue par des expressions de politesse usuelles) s’apparente à ce qu’Isaac Joseph décrit comme des « compétences civiles ou rituelles » (Joseph, 2009), c’est-à-dire à la capacité de maintenir une relation « chaude » en sortant du cadre strictement fonctionnel de l’interaction (dans le cas des chatbots, donner une information). L’usage des mots de politesse et des réponses de « small talk » (bavardage), c’est-à-dire des formes phatiques de dialogue (faire des blagues, répondre à des demandes hors sujet de type « quel âge as-tu ? »), est peu développé par les concepteurs. Ce qui pourrait relever d’une fonction ludique du chatbot est partiellement laissé de côté, car jugé difficile à mettre en place pour un public large et hétérogène dans le cas de Bot1, ou inapproprié pour une clientèle de professionnels, dans le cas de Bot2.

19Les concepteurs se heurtent également à des contraintes concernant l’univers de la marque, qui produit ses propres règles de développement, appelées couramment « guidelines ». Malgré le souci de personnification du système, les concepteurs doivent suivre des règles de standardisation. Celles-ci relèvent de l’image publique de la marque, laquelle est censée rester cohérente dans son ensemble :

20

« En fait, lorsqu’on fait des projets ici, on doit passer par ce qu’on appelle des “designs cliniques”, c’est-à-dire que les équipes de validation vont regarder le projet avant sa mise en production : application mobile, portail Web et même service vocal, peu importe. Ils vont analyser ça et ils vont rendre un jugement nous disant si c’est conforme ou pas à la marque. »
Laurent, designer Bot2, 2018

21Les différents projets de la marque passent ainsi par une sorte d’étape de validation « éditoriale » du design, afin de rester dans l’orientation globale de l’entreprise. Les équipes de conception ne peuvent donc pas s’écarter d’une histoire plus large qui est celle de l’identité de marque : construire un chatbot n’est pas simplement une question d’automatisation du service client ou de marketing, mais comporte aussi une dimension publicitaire de l’ordre de l’image de marque. Il ne s’agit pas de créer des substituts de vendeurs ou d’opérateurs, mais de développer un personnage compatible à l’univers de l’enseigne, ce qui rapproche ces dispositifs du phénomène des mascottes. Au problème de « personnification » du bot (donner une « face » au programme en scénarisant le dialogue), qui est une condition de personnalisation de l’interaction (avoir l’impression de parler à un personnage civilisé), se pose ainsi celui de la standardisation de l’image de marque. Le personnage du chatbot se heurte donc à deux contraintes : celle de proposer un mode d’interaction « interpersonnel », plaisant, comme peut l’être par exemple un commerçant de proximité, et celle de rester conforme à l’univers professionnel, à l’esprit de la marque qu’il incarne.

Discuter la tonalité de discours du bot

22Comment parler aux clients quand on est un chatbot ? Comme nous l’avons vu, la projection d’une « personnalité » du chatbot est un premier pas vers une forme partielle de personnalisation de l’interaction. Dans la continuité de cette préoccupation, les concepteurs réfléchissent également à la tonalité de discours du bot, c’est-à-dire à sa manière de parler ainsi qu’à sa distance relationnelle avec les clients. Anticiper les expressions du chatbot nécessite de réfléchir au vocabulaire accessible et compréhensible par les clients : il s’agit de trouver les bons mots pour évoquer des problèmes parfois techniques (communément appelé « wording »), avec la bonne distance discursive (ni trop familière, ni trop froide). Cette dimension de la conception touche à la partie « métier » du chatbot, c’est-à-dire au vocabulaire professionnel du conseiller, à la fois accessible et spécialisé, et à sa manière d’aborder les clients (c’est-à-dire sa distance relationnelle : peut-il faire des blagues ? Doit-il plutôt tutoyer ou vouvoyer ?). Sur le projet Bot1, Claire, rédactrice de 25 ans, travaille à l’écriture des réponses du chatbot. Si ses compétences rédactionnelles ne sont pas remises en cause par les autres membres du projet, celle-ci se heurte néanmoins à des difficultés de formulation, en lien avec le langage et les codes d’interaction en marketing : de formation littéraire (un master en littérature anglaise), ce secteur lui est peu familier. « Je ne pouvais pas savoir que le wording (cf. vocabulaire) n’était pas bon. Il existe pratiquement un wording pour chaque secteur : il ne fallait pas direachat terminémaispanier”… » Claire, rédactrice sur le projet Bot1, 2018

23De même, ses propositions de blagues et de références culturelles cachées (« easter eggs ») sont mises de côté afin de privilégier une approche « professionnelle » des réponses du bot. Cet exemple illustre in fine le problème de l’absence d’une figure experte dans le domaine de l’écriture des dialogues avec un bot : si l’exercice requiert un savoir-faire littéraire dans la manipulation des mots du chatbot et la maîtrise de la langue française, celui-ci demande aussi de connaître les codes du marketing, ainsi que ceux de la marque. Les réponses, une fois écrites, sont validées par la directrice de rédaction de l’entreprise, s’occupant de la cohérence des messages diffusés par la marque.

24L’écriture des réponses est donc, elle aussi, une activité mouvante qui ne s’inscrit pas définitivement dans le dispositif : les paroles du chatbot sont destinées à être comprises par les clients, tout en étant validées par la marque, par le biais du responsable éditorial de l’enseigne. Les concepteurs qui écrivent les réponses du chatbot ne sont pas en totale liberté concernant leurs choix de rédaction : ils doivent adapter les réponses du bot à la compréhension des clients, mais ils doivent aussi respecter l’arbitrage de l’image de marque qu’ils participent à entretenir. Cette difficulté de compromis sur les mots du bot est, pour les deux projets, illustrée par la participation de plusieurs acteurs à la rédaction continue du « wording » (rédacteur ou rédactrice initiaux, modification éventuelle d’un acteur « métier », validation hiérarchique). Cette phase de rédaction initiale n’est d’ailleurs pas définitive, puisque les réponses du chatbot sont remaniées en fonction des usages réels.

Scénariser l’interaction

L’écriture des arbres de dialogue

25Cette mise en scène du personnage du chatbot, à la fois « social » et professionnel, se prolonge par un travail fin de scénarisation des interactions : l’une des premières étapes de conception consiste, pour les deux équipes projet, à définir des « scripts d’usages ». Ces scénarios permettent de mettre en scène le dispositif dans une situation de fonctionnement. Ceux-ci nécessitent de projeter une figure-type de l’usager (Akrich, 2006 ; Akrich et Méadel, 2004), et permettent de cadrer les limites de fonctionnalités du dispositif : pour cela, les concepteurs définissent des thématiques de réponses précises. Les concepteurs imaginent le rôle du chatbot, les questions auxquelles il va répondre, la manière dont les interactions vont s’ordonner sur l’interface. Le déroulement des échanges sur les thématiques arrêtées est visualisé au moyen de vignettes de couleur (image 1) sur un axe temporel défini. L’orchestration des échanges, telle qu’ils sont imaginés durant ce premier temps de conception, montre que les concepteurs s’appuient sur une vision linéaire du dialogue : dans cette fresque colorée, l’utilisateur clique sur la fenêtre de tchat, pose une question, clique sur les différentes options de réponse, et repart une fois l’information trouvée. Nous verrons toutefois que cette représentation des dynamiques de dialogue ne correspond pas forcément à la réalité des situations de dialogues.

Image 1

Scripts d’usages et scénarisation des interactions au début du projet Bot1

Image 1

Scripts d’usages et scénarisation des interactions au début du projet Bot1

Source : auteure

26Lorsque l’équipe projet clôt les premiers cas d’usages du chatbot, c’est-à-dire les questions auxquelles il va répondre, il s’agit ensuite d’organiser les modalités de réponse. En effet, les concepteurs tentent de baliser la diversité de scénarios de réponses possibles : ils le font au moyen de schémas logiques appelés « arbres » de dialogues, ou « logigrammes ».

Figure 1

Extrait de logigramme sur l’intention « parler à un humain », Bot1

Figure 1

Extrait de logigramme sur l’intention « parler à un humain », Bot1

*Heures ouvrables, Heures non ouvrables (horaires d’ouverture du service)
Source : auteure

27Les arborescences désignent les enchaînements temporels et logiques des étapes d’un dialogue : cette scénarisation permet, en théorie, de conduire l’interlocuteur au fil de l’échange à la résolution du problème, en affinant les spécificités de sa question, lorsque son intention a bien été détectée. Pour cela, les équipes projet Bot1 et Bot2 utilisent chacune une solution logicielle intégrant un système de reconnaissance du langage naturel, couplé à une interface d’utilisation (ou « tableau de bord »).

L’interface de développement : une boîte noire problématique

28Il faut comprendre ici que les équipes projets Bot1 et Bot2 n’utilisent pas leur propre solution TAL, mais font appel à un prestataire externe : en découle une relative méconnaissance du système, un effet « boîte noire » maintenu en partie par les prestataires (dont l’offre prend la forme d’un abonnement d’accès à la plateforme, complété par un service d’accompagnement de prise en main). Le rôle de cette interface de développement est de plusieurs ordres : d’une part, elle permet d’organiser et d’archiver les différents scénarios d’interactions, d’autre part, elle permet l’application d’une solution clés en main de traitement du langage naturel (TAL), en vue de traiter les requêtes spontanées des usagers. Ainsi, la plateforme permet la mise en relation des schémas d’interactions avec les requêtes réelles des usagers, au moyen d’un calcul statistique [17] qui permet de détecter « l’intention » de l’interlocuteur.

29La solution TAL fonctionne par expérience : les concepteurs doivent d’abord intégrer des questions potentielles en texte libre, car ces prises de parole virtuelles permettent à l’outil d’avoir une base de calcul pour le traitement ultérieur des textes en langage naturel. En effet, les concepteurs vont définir ensemble les thématiques d’interactions du bot, afin d’écrire des scénarios de requêtes en lien avec celles-ci. Pour le dire autrement, les concepteurs entraînent le chatbot à reconnaître le sens des phrases en lui donnant d’abord des cas de résolution de problème pré-écrits. Dans le langage des concepteurs, ces thématiques sont désignées comme des « intentions », et les requêtes des interlocuteurs humains sont nommées « variations ».

30Pour résumer, la détection d’une intention correspond à la reconnaissance d’une requête sémantique (par exemple : « Portable > Vol » pour une question relative à un portable volé). Les intentions sont des thématiques de résolution de problème, incarnées par un mot ou un groupe de mots ; elles constituent des formes de balises sémantiques, permettant à l’outil de reconnaître une requête dans la formulation de l’interlocuteur humain. Pour que ces balises fonctionnent, un autre travail d’écriture est nécessaire : la rédaction des variations d’intentions. Les variations représentent les différentes manières de s’exprimer pour une même requête, et constituent une base d’expérience pour le chatbot.

Figure 2

Extrait du tableau Excel des intentions/variations

Figure 2

Extrait du tableau Excel des intentions/variations

Source : Extrait issu du fichier de travail du projet Bot1

31

« Hop, on va donner des intentions, avec un certain nombre de variations ; alors il en faut quand même pas mal, il en faut au moins 40 pour que le système comprenne bien. Généralement, il faut donner des phrases bien faites, grammaticalement correctes, pour qu’il puisse apprendre. »
Max, architecte cognitif Bot2, 2018

32Ces variations d’intentions représentent une anticipation du langage client : dans ce travail rédactionnel, on s’intéresse avant tout aux manières dont les clients peuvent formuler le même problème. L’outil de compréhension devient ainsi un outil d’agrégation de diversité d’expressions (l’outil contient un module de lemmatisation et un module orthographique afin de limiter l’écriture des variations d’intentions). Dans un premier temps, ces manières de dire sont imaginées, mais elles sont plus tard alimentées par l’utilisation effective du système par les utilisateurs. Contre toute attente, la rédaction des intentions et des variations d’intentions est un travail exclusivement humain : de ce fait, il n’est pas possible de considérer l’algorithme comme « auto-apprenant ».

33

« Le système d’“IA” qu’on utilise, ce n’est pas un truc magique qui fait tout, tout seul. L’entreprise prestataire prétendait, au départ, que leur système d’Intelligence Artificielle était auto-apprenant. C’est faux ! (…) Il fallait lui apprendre à apprendre, en fait. Donc il y a beaucoup plus d’interventions humaines que ce qu’on croit pour maintenir une Intelligence Artificielle. »
Dominique, Designer Bot2, 2018

34La « compréhension » calculatoire du chatbot nécessite alors de remplir trois conditions : la détection d’une intention, le bon renseignement de cette intention, ainsi que la fiabilité de l’intention détectée. Si ces conditions sont remplies, le chatbot peut répondre de manière cohérente et donner l’impression d’avoir compris l’utilisateur. Dans tous les autres cas, la « compréhension » est imparfaite : l’intention n’a pas encore été répertoriée, l’intention a été répertoriée mais ses variations sont incomplètes, l’intention a été répertoriée mais les réponses sont incomplètes… Dans ces autres cas, la réponse fournie par le bot est un message d’incompréhension (par défaut), ou bien une information inexacte (pour un phénomène de « faux positif »). Le tableau de bord permet ensuite de faire le pont entre compréhension de l’outil algorithmique et compréhension humaine grâce aux « backlogs », ces historiques de conversations avec le chatbot qui permettent d’observer les déroulements des conversations passées. Les superviseurs du système peuvent alors comparer le résultat de détection d’intention à leur propre compréhension de ce qu’a écrit le client. Dans cette quête de l’interaction réussie, les retours des clients sont précieux pour les concepteurs (feed-back, entretiens, satisfaction) ; cependant la « voix du client », sur cette interface de dialogues en libre-service, est difficile à recueillir. Dans cette perspective d’incertitude, les concepteurs se trouvent contraints de pallier les manquements du chatbot en produisant un travail de veille et de supervision continu.

Arranger la liaison entre usagers et dispositifs

Gestion et évolution des bases de connaissances sémantiques

35Nous l’avons vu, les variations d’intentions sont des manières de dire projetées, scénarisées, ou inspirées de correspondances « e-chats » (i.e. conversations en ligne) entre clients et opérateurs humains. Cette base primaire est réalimentée par la suite grâce aux demandes réelles des usagers lors des premiers usages du bot en production : on peut citer comme exemple l’ajout de l’intention « bonjour », qui permet de répondre à cette tendance inattendue qu’ont les internautes de dire uniquement « bonjour » lorsqu’ils entament le dialogue avec un chatbot. Sans l’ajout manuel d’une nouvelle intention « bonjour », le chatbot ne comprend pas cette marque de politesse isolée d’une demande quelconque, et fournit par défaut la réponse-type correspondant à un échec de détection d’intention. Du point de vue du scénario, un échec de réponse au premier tour de parole des utilisateurs est vivement redouté : sur les deux projets, les designers considèrent qu’une première interaction ratée est une source possible de déception des utilisateurs vis-à-vis du dispositif.

36La base de connaissance pose alors problème dans deux mesures : d’une part, parce qu’elle demande un effort de projection et de scénarisation des dialogues (comment va s’exprimer l’interlocuteur ?) d’autre part, parce que la méconnaissance relative de l’outil de traitement génère de l’incertitude quant à la granularité des variations (comment les écrire, quel est le degré de finesse de l’outil de traitement du langage ?). La politique de rédaction des variations s’appuie donc sur la restitution de verbatim clients (même si ceux-ci s’adressent à des humains) – « on se base (les rédacteurs de l’équipe projet) sur comment les clients s’expriment » – précise bien Julie, designer en expérience client sur le projet Bot1.

37Concernant cette gestion des connaissances utilisateurs, les concepteurs de Bot1 se posent aussi la question de ce qu’on peut compter comme de « vrais mots », des mots qui seront rentrés dans la base de connaissances tels quels, des « petits mots », ceux que l’algorithme ne prend pas en compte dans le calcul, et les autres termes, que l’on va étiqueter, regrouper, pour les comprendre par connotation (quels termes peut-on regrouper ? Ignorer ? Ou marquer comme ayant un fort poids sémantique ?). La compréhension des clients, dans la perspective de conception d’un chatbot, doit donc être prise au pied de la lettre. Les itérations sont limitées, car contrairement aux interlocuteurs humains, il n’est pas pertinent de répéter plusieurs fois la même phrase à une machine ; c’est un processus en « un seul coup », sans demi-mesure, presque binaire malgré les apparences, puisque le système détecte une intention ou ne la détecte pas (dans le cas de Bot2, l’algorithme de détection délivre également un score de précision du résultat qui est interprété comme un indicateur de fiabilité du calcul). Ainsi, il y a peu de flexibilité dans le dialogue, contrairement à ce que pourrait nous faire penser l’appellation traitement du langage naturel ; le système traite du langage naturel en fonction de différents facteurs de calcul, mais la « compréhension » est limitée, puisqu’elle tient compte de paramétrages préalables. Il s’agit alors d’une forme hybride de dialogue, entre le langage naturel et le langage informatique (par requête). Cette hybridation est dynamique ; puisqu’il s’agit d’outils évoluant avec le recueil de données d’expérience, ceux-ci sont susceptibles de fonctionner autrement avec le temps. Si les équipes de développement rêvent parfois d’outils permettant d’enrichir automatiquement le vocabulaire des bots (car c’est un travail peu qualifié), le chatbot, pour l’heure, ne fonctionne pas « tout seul ». C’est dans cette optique que le dialogue initié par le chatbot ne peut pas être considéré comme un face-à-face programme-internaute, mais plutôt comme un système scindé en trois parties, impliquant la surveillance permanente d’humains superviseurs.

Une compréhension tripartite

38A priori, l’interface met bien en relation deux interlocuteurs dans un dialogue : d’une part, les clients qui expriment une requête, et d’autre part, le chatbot qui effectue une action de calcul de détection d’intention afin de donner une réponse. Mais les échanges langagiers sont également relus, par échantillons ou intégralement, par l’équipe de superviseurs humains qui s’occupe de développer, de superviser le système de compréhension et d’écrire les réponses. Ceux-ci opèrent en effet une surveillance continue du système, au moyen d’une lecture assidue des sessions de dialogues enregistrées quotidiennement. Ces historiques, toujours conservés, sont lus et analysés par l’équipe afin de détecter les interactions « ratées » ; celles-ci sont annotées et étiquetées en plusieurs catégories. Ce document de relecture est partagé en temps réel par tous les membres de l’équipe du projet grâce à un progiciel sur lequel l’ensemble des documents en version finale est hébergé (bases de connaissances, arborescences de dialogues, historiques de dialogues, calendrier de suivi du projet). Cette activité vise à détecter les cas d’interactions ratées après-coup : lorsque des usagers ne suivent pas le scénario imaginé, ou bien lorsque le chatbot ne sait pas bien répondre à la demande de l’usager, les concepteurs analysent la situation et cherchent à comprendre ce qui n’a pas fonctionné.

39Cette surveillance ne s’applique pas uniquement aux historiques de dialogues, qui concerne le déroulement des interactions, mais touche également à la compréhension de l’outil utilisé pour calculer le sens des requêtes des clients : en délivrant des résultats parfois différents pour des situations similaires, l’outil TAL est un autre acteur qu’il faut comprendre et dont il faut cadrer les bugs. Les concepteurs s’attachent donc à comprendre les différentes manières de s’exprimer des clients (notamment, en repérant les divers termes employés pour désigner une même situation), et à la fois à comprendre comment le système a « compris » le client, en comparant le résultat des intentions calculées et ce que les superviseurs humains comprennent d’une même phrase (puisque les équipes projet n’ont pas accès aux modalités du calcul). L’observation se déroule donc en deux temps ; d’une part, il s’agit d’enrichir les facultés de compréhension du système, d’autre part, il s’agit d’anticiper le calcul du système afin de pouvoir « réparer » les interactions ratées. C’est à ce moment qu’il peut être décidé, par exemple, d’insérer une question à choix multiples (des réponses proposées par boutons) plutôt qu’une interface à texte libre, lorsque plusieurs cas d’incompréhension se répètent pour une même proposition du bot : « (…) par moments il y a des clients, ça fait 3 fois qu’on leur dit des trucs et à la fin ils sont complètement paumés, et ça arrive qu’on sache plus trop où ils sont, et ils s’énervent un peu. C’est logique. Du coup voilà, ça, ça peut vraiment changer, souvent. » Max, architecte cognitif Bot2, 2018

40Proposer des choix de réponses cliquables permet au dispositif de ne « pas se tromper » sur la formulation du client, quitte à rompre la dynamique conversationnelle initiée par la saisie en texte libre. Sur le projet Bot1, c’est une personne, Julie, qui s’occupe quotidiennement de lire et étiqueter quelques centaines de conversations par semaine, apportant ainsi une couche de compréhension « humaine » sur celle de l’« intelligence artificielle »… Au prix d’un travail méticuleux d’attention. Le tri des dialogues « réussis » et « ratés » (c’est-à-dire, avec ou sans détection de la bonne intention) est une activité à part entière des concepteurs, qui consiste à pallier les carences de l’outil. Cette activité de supervision continue requiert cependant des compétences d’analyse particulières (comprendre par déduction ce que le client ou la machine n’a pas compris) et se distingue ainsi de l’activité de fond, peu qualifiée, des microtravailleurs du « clic » étudiés par Antonio Casilli (Casilli, 2019).

41De la même manière que pour les interactions de service conduites par des humains, les interactions avec des chatbots nécessitent donc, elles aussi, un important travail collectif d’arrière-plan, que ce soit dans la conception préalable du service ou dans sa production (Combes, 2002). Mais ce travail collectif qui allie plusieurs compétences (design, métier, technique, pratique du langage ordinaire) n’est pas toujours suffisant. Dans son article paru en 2007, Philippe Zarifian montre bien comment les interactions de service sont guidées à la fois par les conventions du métier et par la participation personnelle des travailleurs dans la compréhension de leur interlocuteur – la compréhension n’est pas une compétence spécifique au métier, mais constitue un exercice individuel nécessaire. Si le travail de service nécessite un dialogue, en face à face ou en ligne, la qualité du service est également contrôlée par un acteur tiers, lequel cadre « la puissance d’action » des employés. Le travail des agents de service se trouve donc à mi-chemin entre convention de métier contrôlable et initiative personnelle silencieuse : au final, la « compréhension » des agents de service nécessite systématiquement une part d’action individuelle et personnelle, dans l’optique de saisir les demandes les plus singulières : l’activité de service comporte donc une part d’imprévisibilité face à laquelle les agents doivent rester flexibles, en étant capables de mobiliser leurs propres ressources.

Les limites du dialogue : orienter l’usager vers les bons périmètres d’action du bot

42Les automates conversationnels posent eux aussi ce problème de compréhension « silencieuse », mais ils le posent différemment. En dépit du travail important de scénarisation des interactions et d’enrichissement des connaissances, deux facteurs imprévisibles font vaciller le système de compréhension : d’une part, la manière dont s’expriment les clients (des phrases trop longues, des mots mal écrits, des fautes syntaxiques…), et d’autre part, les calculs d’intention erronés, ou divergents pour un même mot. Ce problème d’alignement interactionnel pointe les limites de l’autonomie du système, qui ne peut pas traiter les requêtes trop écartées du script (que ce soit à propos du sujet de la demande ou de la manière de formuler celle-ci). Aussi, à la fin de la première phase d’élaboration, l’équipe projet Bot1 fait ses propres tests sur le chatbot : comment réagit-il si on lui écrit en langage SMS ? Quels mots est-il encore incapable de saisir ? Quelles sont les tournures syntaxiques les plus adéquates en vue d’un score de détection d’intention pertinent ? Cette part du système qui reste inconnue (mots et demandes des clients, calculs de l’algorithme…), rend le dispositif imprévisible pour les concepteurs : pour contourner ses limites, les équipes projet mettent en place des stratégies afin d’orienter les usagers vers les bons périmètres d’usages.

43Ainsi selon Dominique, designer sur le projet Bot2, un chatbot est davantage ambigu si on ne rajoute pas quelques éléments de mode d’emploi en introduction : Bot2 se voit ainsi doté d’une petite notice au-dessus de la fenêtre de conversation, expliquant en quelques mots ce qu’il est capable de faire. Cette mesure, selon le designer, permet aux usagers d’évaluer les fonctionnalités réelles du dispositif et de ne pas commencer l’interaction avec un niveau d’attente trop élevé. François, responsable du projet Bot1, explique également que la meilleure façon de répondre convenablement à la question d’un usager est de le guider dans un parcours aux réponses préconstruites : pour cela, le chatbot peut proposer des réponses au moyen de boutons cliquables, ce qui évite d’avoir recourt à la détection d’intention sur une requête écrite par l’usager. De même, Bot1 peut réorienter des usagers vers la bonne page URL du site de l’entreprise afin de les guider vers la bonne information, lorsqu’il ne peut pas y répondre directement.

44Ces formes d’orientation des usages restent malgré tout limitées (proposer de cliquer sur un bouton pour répondre n’empêche pas les usagers d’écrire ni de poser des questions hors sujet), et remettent en question la promesse de compréhension du langage associée aux chatbots. En effet, en poursuivant l’idéal d’une mise en relation commerciale automatique et à grande échelle, les concepteurs se trouvent enrôlés dans un nécessaire travail d’assemblage des éléments de compréhension : nous l’avons vu, cette notion apparaît comme un processus complexe, qui se réduit difficilement à la détection automatique de sens dans une phrase.

Conclusion

45Si la conversation est un thème classique de la rencontre marchande, les chatbots invitent à questionner les modalités de son automatisation : en effet, la mise en place d’un dispositif de traitement automatique des dialogues s’oppose à la multiplicité irréductible des modes d’expression des interlocuteurs humains. Cette opposition met les concepteurs en tension entre deux projets antagonistes : celui consistant à massifier les échanges et celui consistant à les personnaliser… Soit produire une large possibilité et un fort volume de dialogues, dans une optique de présence marchande à moindre coût. À travers la description de deux projets d’agents conversationnels, nous avons montré comment cette tension s’incarne dans l’activité des concepteurs, qu’il s’agisse de la personnalisation des échanges, ou de la manière de prendre en charge la diversité de parole des usagers. Cet antagonisme surgit plus précisément dans le processus de compréhension du dispositif : l’outil de compréhension du langage naturel, dans les deux projets, est vite limité par des contraintes de plusieurs ordres (niveau de français des usagers, organisation des arbres de dialogue…). Les concepteurs viennent ainsi pallier les limites de fonctionnement de l’outil, et ce de manière systématique (supervision continue des historiques, échantillonnés ou intégraux). La compréhension apparaît alors non plus comme un face-à-face entre l’interface et l’usager, mais comme un ensemble d’éléments combinés. L’assemblage de ces échanges automatiques par une chaîne d’acteurs de la compréhension apparaît comme une mise en abîme des efforts de mise en relation marchande outillée (Callon, 2013 ; Cochoy, Deville et McFall, 2017) : à une échelle micro, les concepteurs s’attellent ainsi à créer un lien de dialogue par un lien d’intercompréhension. Aussi, le mode de production de ces dispositifs évolutifs nous amène à interroger la notion de script d’un objet technique (Akrich, 1987), dans sa dimension de prescription d’usage : en effet, laisser la possibilité aux interlocuteurs de s’exprimer dans les mots qu’ils souhaitent nécessite, en retour, de respecter la promesse qu’incarne ce dispositif (comprendre les clients) et de prendre en charge cette diversité de prises de parole. La contrepartie de cette ouverture compréhensive, c’est une nécessité d’inverser la logique de prescription des usages, pour au contraire adopter une démarche minutieuse et qualitative d’attention aux usages. Loin d’éloigner la parole des clients par sa prise en charge automatique, les concepteurs se trouvent dans une position d’observation et de compréhension accrue des dialogues ; les chatbots, en tant qu’outil de massification des échanges, produisent alors l’effet inattendu d’accroître l’attention à la parole des clients plutôt que de la mettre à distance par sa prise en charge automatique.


Annexe 1
Tableau 3

Récapitulatif des observations

Projet de chatbotLieu de l’observationHeures d’observation
Bot 1 : chatbot commercial à destination du grand public, première version pré-production.Plateau de travail (open space dédié aux membres du projet).45h
Bot 2 : chatbot d’assistance clients pour les clients professionnels de la marque, en production.Salle de tests-clients équipée (enregistrement vidéo de mises en situation expérimentale d’usage du chatbot).28h

Récapitulatif des observations

Source : auteure
Annexe 2
Tableau 4

Tâches spécifiques et profils impliqués

Profils impliquésTâche spécifique
Cadre du projet (Bot1, Bot2).Responsable du projet, veille au suivi du planning, communique à la hiérarchie.
Rédactrice (Bot1), architecte cognitif (Bot2), chargée Voix du client (Bot2), chargée de communication réseaux sociaux (Bot2).Écrire les réponses du bot, imaginer l’enchaînement du dialogue.
Rédactrice (Bot1), architecte cognitif (Bot2).Gérer l’utilisation de la plateforme de conception.
Designer graphique (Bot2), designeuse UX (Bot1).Imaginer et concevoir l’interaction visuelle du bot.
Rédactrice(Bot1), designeuse UX(Bot1), chargée de communication réseaux sociaux(Bot2), Designer (Bot2).Enrichir les bases de connaissances du bot.
Développeurs et stagiaires développement (Bot1, Bot2).Implémenter le dispositif sur le site, faire les connexions avec le SI de la marque.

Tâches spécifiques et profils impliqués

Source : auteure

Bibliographie

Références

  • AKRICH M. (1987), « Comment décrire les objets techniques ? », Techniques et culture, n° 9, p. 49-64.
  • AKRICH M. (2006), « La description des objets techniques », in M. Akrich, M. Callon et B. Latour (dir.), Sociologie de la traduction : textes fondateurs, Paris, Presses des Mines, p. 159-178.
  • AKRICH M., MEADEL C. (2004), « Problématiser la question des usages », Sciences sociales et santé, vol. 22, n° 1, p. 5-20.
  • BENEDETTO-MEYER M. (2003), « De la vente d’assurances au “customer relationship management”. Le rôle des outils techniques dans la recomposition d’une activité », Réseaux, n° 120, p. 207-239.
  • CALLON M. (dir), (2013), Sociologie des agencements marchands, Paris, Presses des Mines.
  • CALLON M. (2017), L’emprise des marchés, Paris, La Découverte.
  • CASILLI A. (2019), En attendant les robots, Paris, Seuil.
  • CHAULET J. (2006), « Parler et faire parler : travail en centre d’appels et dispositif de surveillance équipée », Terrains et travaux, n° 11, p. 36-60.
  • CIHUELO J. (2010), « Le cas d’un modèle hybride de centre d’appels. Entre rationalisation et réappropriation professionnelle », Réseaux, n° 164, p. 161-196.
  • COCHOY F. (dir.) (2004), La captation des publics. C’est pour mieux te séduire, mon client… Toulouse, Presses universitaires du Mirail.
  • COCHOY F., DEVILLE J., McFALL L. (2017), Markets and the Arts of Attachment, Londres, Routledge.
  • COLL S., LYON D. (2015), Surveiller et récompenser : les cartes de fidélité qui nous gouvernent, Zurich, Seismo.
  • COMBES M.-C. (2002), « La compétence relationnelle : une question d’organisation », Travail et emploi, n° 92, p. 14.
  • DENIS J. (2018), Le travail invisible des données. Éléments pour une sociologie des infrastructures scripturales, Paris, Presses des Mines.
  • GOFFMAN E. (1974), Les Rites d’interaction, Paris, Les Éditions de Minuit.
  • JAMMET T. (2017), « Les habits neufs de la communication de marque sur le web social : le travail d’intermédiation des community managers » Sociologies pratiques, vol. 34, n° 1, p. 61-71.
  • JOSEPH I. (2009), Erving Goffman et la microsociologie, Paris, Presses universitaires de France.
  • KESSOUS E. (2011), « L’économie de l’attention et le marketing des traces », Actes du colloque « Web social, communautés virtuelles et consommation », 79e congrès international ACFAS, Chaire de relations publiques et communication marketing, UQAM, Université de Sherbrooke, 11 mai 2011.
  • LICOPPE C. (2006), « La construction conversationnelle de l’activité commerciale », Réseaux, n° 135-136, p. 125-159.
  • MALLARD A. (2002), « Les nouvelles technologies dans le travail relationnel : vers un traitement plus personnalisé de la figure du client ? », Sciences de la société, n° 56, p. 62-77.
  • STAR S. L., STRAUSS A. (1999), « Layers of Silence, Arenas of Voice: The Ecology of Visible and Invisible Work », Computer Supported Cooperative Work, vol. 8, n° 1, p. 9-30.
  • TUBARO P., CASILLI A. (2019), « Micro-Work, Artificial Intelligence and the Automotive Industry », Journal of Industrial and Business Economics, n° 46, p. 333-345.
  • UGHETTO P. (2018), Organiser l’autonomie au travail : travail collaboratif, entreprise libérée, mode agile… L’activité à l’ère de l’auto-organisation, FYP Éditions, https://halshs.archives-ouvertes.fr/halshs-01929774, consulté le 3 mars 2020.
  • VAYRE J.-S. (2013), « Big data and customer relationship: When digital traces organize the merchant exchange », 12es Journées normandes de recherches sur la consommation : Société et consommation, novembre, Caen, p. 1-20.
  • VELKOVSKA J. (2015), « La “communauté de marque” comme accomplissement pratique », Communication, vol. 33, n° 2, en ligne : http://journals.openedition.org/communication/5906, consulté le 3 mars 2020.
  • VELKOVSKA J., BEAUDOUIN V. (2014), « Parler aux machines, coproduire un service. Intelligence artificielle et travail du client dans les services vocaux automatisés », in E. Kessous et A. Mallard (dir.), La fabrique de la vente, Le travail commercial dans les télécommunications, Paris, Presses des mines, p. 97-128.
  • ZARIFIAN P. (2007), « Dits et pensée silencieuse dans l’exercice de la puissance d’action des travailleurs du service », Travailler, n° 17, p. 143-161.

Notes

  • [1]
    « Zuckerberg announces Facebook Bots for Messenger », CNN Business, 13 avril 2016, disponible sur : https://www.youtube.com/watch?v=SN-Lz-DpBwc, consulté le 22 mai 2018.
  • [2]
    « Bots for Workplace: Building bots for Workplace in groups and Chat », Facebook for developers, 2019, disponible sur : https://developers.facebook.com/docs/workplace/integrations/custom-integrations/bots, consulté le 22 mai 2018.
  • [3]
    « Chatbots : quand le service client se robotise », 30 juillet 2018, [émission de radio] France Inter, Société, Paris, France : Radiofrance, disponible sur : https://www.franceinter.fr/societe/chatbots-quand-le-service-client-se-robotise, consulté le 3 mars 2020.
  • [4]
    Application Programming Interface – interface de programmation.
  • [5]
    Le Traitement Automatique du Langage ou Natural Language Processing (TAL) en anglais, vise à comprendre et traiter le langage naturel via des outils linguistiques et informatiques, à des fins opérationnelles telles que la traduction automatique, ou encore la correction orthographique automatique.
  • [6]
    Les assistants vocaux font appel au même type d’outils que les chatbots, ceux-ci requièrent en complément un module « speech to text » afin de transcrire la parole orale en texte écrit. Si ces dispositifs sont en principe similaires aux chatbots, ils sont cependant inexistants sur les sites de marques et les réseaux sociaux, au moment de l’écriture de l’article.
  • [7]
    Les plateformes de développement de chatbots sont des interfaces préconçues de création, qui intègrent un tableau de bord et une solution de traitement du langage naturel. Ces plateformes ont la particularité de s’adresser à un public de concepteurs large, n’ayant pas nécessairement de compétence en programmation informatique.
  • [8]
    Les expériences d’usages sont réalisées auprès de clients professionnels ayant une petite ou moyenne entreprise ; ces expériences consistent à mettre les clients en situation orientée d’utilisation du dispositif (parler au chatbot, lui demander une information qu’il est censé pouvoir donner).
  • [9]
    Nous évoquerons dans cet article uniquement la solution utilisée par le projet Bot1.
  • [10]
    Les noms de métiers sont féminisés en fonction du genre des individus, afin de rendre compte de la représentation des femmes dans les deux équipes projets.
  • [11]
    Personne chargée de penser la prise en main du dispositif par les usagers.
  • [12]
    Personne chargée de recueillir et d’analyser les commentaires et les réactions des clients sur les réseaux sociaux de la marque.
  • [13]
    Personne chargée de penser les messages de la marque sur internet et les réseaux sociaux (à l’inverse du community manager, cette personne ne gère pas les échanges en temps réels).
  • [14]
    Personne chargée de gérer les arbres de dialogues dans la plateforme de développement utilisée.
  • [15]
    L’« expérience client » fait référence, en marketing, à l’expérience vécue par les clients avec la marque.
  • [16]
    Microsoft a ainsi fait appel à Jonathan Foster, scénariste, pour écrire la « personnalité » de Cortana, son projet d’assistant conversationnel. https://www.businessinsider.fr/jonathan-foster-faconne-la-personnalite-de-cortana-assistant-intelligent-microsoft, consulté le 3 mars 2020.
  • [17]
    Ici concernant le projet Bot1, l’entreprise prestataire décrit dans son mode d’emploi que sa solution combine l’utilisation de l’algorithme TF-IDF et de l’algorithme hongrois. Ces algorithmes sont utilisés, par exemple, dans certains moteurs de recherche pour hiérarchiser le poids des mots et trouver les termes les plus pertinents pour évaluer le sens d’une requête en langage naturel. Cependant, la visualisation des calculs effectifs de détection d’intention sont inaccessibles aux clients, ce qui ne permet pas une prise en main totale de l’outil (les concepteurs-usagers n’ont pas accès aux modalités de calcul des scores, ce qui les empêche d’en comprendre entièrement les facteurs et d’anticiper le fonctionnement de l’outil).
bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Avec le soutien de

Retrouvez Cairn.info sur

18.97.14.82

Accès institutions

Rechercher

Toutes les institutions