Couverture de HERM_080

Article de revue

« En parlant aux machines, nous perdons notre humanité »

Pages 230 à 235

Note

  • [1]
    Toutes les citations sont extraites de Seuls ensemble.

1Franck Renucci : Au sujet de la question de l’Autre, vous écrivez dans Seuls ensemble[1] (2015 [2011]) : « Nous craignons les risques et les désillusions auxquels nous exposent les relations avec autrui. Nous attendons plus de la technologie et moins les uns des autres. » (p. 14) Pourquoi se détourne-t-on si facilement de l’Autre qui pourtant permet de construire des relations d’empathie et d’intimité ? Ne perd-on pas le désir de la rencontre, l’attention à l’autre ?

2Sherry Turkle : J’ai constaté que si nous fuyons la conversation, c’est en partie par crainte de ce que nous risquons de révéler, d’autant que nous avons maintenant la possibilité de nous abriter derrière des écrans. Nous sommes arrivés à un point que j’appelle « l’ère robotique », non pas parce que nous avons créé des robots qui sont en position d’avoir une relation d’altérité avec nous, mais parce que nous sommes disposés à leur donner ce rôle.

3Nous sommes disposés à investir dans des « machines empathiques » (et je place cette expression entre guillemets à dessein). Nous sommes, par exemple, tentés par un compagnonnage, voire un dialogue thérapeutique, avec des programmes informatiques conçus pour passer avec succès une sorte de nouveau test de Turing. Cette fois, il ne s’agit plus de savoir si l’ordinateur est intelligent (une question tellement caractéristique du siècle dernier !), mais de déterminer si la machine est capable de simuler des émotions. Avec un test comportemental comme celui de Turing, le fait d’avoir l’air d’être intelligent constituait une preuve suffisante d’intelligence. Maintenant, on nous dit qu’il suffit d’avoir l’air de ressentir de l’empathie pour être un compagnon suffisamment empathique, voire un psychothérapeute.

4J’ai par exemple interrogé des personnes qui sont très contentes de parler à un logiciel en ligne qui tient le rôle d’un psychothérapeute (Woebot, par exemple). Ces personnes se confient à Woebot, lui parle de leurs problèmes conjugaux et de leurs enfants, même si le programme n’a pas l’expérience de la vie et ne peut que prétendre s’intéresser à ce qu’elles lui disent. À l’ère robotique, nous voici prêts pour ce semblant d’empathie.

5Qu’est-ce qui explique la séduction exercée par Woebot ? Le sentiment de vulnérabilité que ressentent les gens vis-à-vis du jugement des autres. La crainte des contacts humains. Les personnes qui utilisent ce programme évoquent leur sentiment de ne pas savoir « bien » faire les choses. Nous cherchons à appliquer aux relations humaines les critères de la maîtrise technologique : l’idée que les choses doivent se faire correctement et efficacement. Nous sommes prêts à aller jusqu’à parler à des machines parce que nous y voyons le moyen d’être moins vulnérables, de nous protéger des autres. Au bout du compte, notre désir d’intimité avec la technologie nous transforme. Quand nous nous satisfaisons d’une empathie feinte, nous oublions ce qui fait la particularité de l’empathie réelle. La technologie ne change pas seulement ce que nous faisons mais aussi ce que nous sommes. C’est cela qui est important à l’ère robotique. Ce n’est pas l’existence de robots compétents qui compte, c’est le fait que les gens soient disposés à se satisfaire d’un semblant d’empathie parce qu’ils préfèrent ça au risque de la vulnérabilité.

6Toutefois, parler à un programme informatique est encore un comportement extrême alors que nous tentons quotidiennement d’oublier nos vulnérabilités en communiquant par écran interposé. Quand on envoie un texto au lieu de se parler, quand on échange sur un chat au lieu de se rencontrer réellement, on y voit un moyen simple de se protéger des autres.

7Franck Renucci : Actuellement, « nous reconfigurons ce que nous sommes et redéfinissons la nature de nos relations » (p. 21). Pourquoi ce mouvement s’opère-t-il sans débats, sans réactions ? Pourquoi est-il « tellement aisé d’être obnubilé par la technologie et de ne plus chercher à développer notre propre compréhension de la vie » ? (p. 170). En résumé, pourquoi se laisse-t-on séduire si facilement par l’idéologie technique ?

8Sherry Turkle : J’ai suivi l’évolution de la culture numérique depuis les premiers ordinateurs personnels jusqu’à l’apparition des réseaux sociaux et des robots sociaux. Ces diverses technologies, orgueil de la révolution numérique, partagent une certaine conception esthétique : la technologie numérique change les règles, le difficile devient facile, le rugueux devient lisse, les frictions doivent disparaître. Ce nouveau monde qu’on nous annonce n’est pas seulement exempt de frictions parce que les transactions économiques sont facilitées par des mécanismes comme les transferts électroniques de fonds. L’ambition est bien plus vaste : il s’agit de réduire, voire d’éliminer, les interactions et les frictions sociales susceptibles de causer un stress émotionnel. Les technologues ont, par exemple, imaginé que l’Internet des objets allait nous faire entrer dans un monde où il serait possible d’éviter toutes les situations stressantes. Selon un scénario récurrent, on pourra par exemple, dans un futur proche, commander à distance, dans son café préféré, une boisson sur mesure et en allant la chercher, grâce à une appli sur le téléphone, on fera un détour pour éviter de rencontrer une ancienne copine et l’appli fera en sorte qu’on ne croise que des amis. Que le corps se déplace dans un espace non conflictuel : voilà toute la séduction de l’idéologie technocratique du non-frictionnel. Cette vision nous séduit en nous convainquant qu’une existence sans conflit, sans confrontation avec le passé, sans rencontre avec des gens pénibles est la vie qu’il nous faut. On nous promet une vie agréable parce que rien ne viendra nous rappeler les erreurs du passé ou nos anciens chagrins : toutes ces choses que nous considérons comme des problèmes et que la technologie doit nous aider à résoudre.

9Les relations humaines sont riches ; elles sont compliquées et exigeantes. Aujourd’hui, quand nous fuyons la conversation et cherchons refuge derrière des écrans pour communiquer ou quand nous partageons notre attention entre les personnes avec qui nous sommes et celles « du téléphone », nous essayons de faire un tri dans nos relations grâce à la technologie. Nous ne faisons plus la différence entre conversation et simple connexion. Il faut se rendre à l’évidence : il ne s’agit pas d’un effet secondaire, c’est désormais l’effet recherché.

10Franck Renucci : « Pendant des décennies, nos ordinateurs nous ont demandé de penser avec eux : aujourd’hui, les ordinateurs et les robots, considérés comme sociaux, affectifs et relationnels, nous demandent d’éprouver des émotions pour eux et avec eux » (p. 75) Pourriez-vous commenter cette phrase ? Pourquoi est-il important de repérer les différences entre Antonio Damasio et Marvin Minsky sur la question du corps et des émotions ?

11Sherry Turkle : C’est la question qu’Hubert Dreyfus a si bien traitée dans son célèbre article inspiré des travaux de Merleau-Ponty, dans lequel il affirme que les ordinateurs ont besoin d’un corps pour être intelligents (« Why computers need bodies in order to be intelligent »). Pour Dreyfus, comme pour Damasio, l’intelligence doit être incorporée. Il n’y a pas de division cartésienne. Pour Minsky, l’esprit existe dans le corps et la conscience peut être programmée dans un esprit qui n’a pas vécu dans un corps. Pour Dreyfus et Damasio, la simulation d’un sentiment ne pourra jamais être un sentiment. La simulation de l’amour ne sera jamais de l’amour. Toutefois, pour l’intelligence artificielle contemporaine, qui se veut désormais sociale, relationnelle et affective, ces barrières ont explosé et on voudrait considérer que si un robot passe avec succès le test de Turing pour les émotions, s’il peut simuler l’émotion, il a des émotions.

12Récemment, en consultant ma messagerie du Massachusetts Institute of Technology, j’y ai trouvé un « appel à participation » concernant une étude sur des robots sociaux qui doivent entrer en conversation avec des enfants pour « susciter de l’empathie ». Avec quoi ces enfants doivent-ils éprouver de l’empathie exactement ? L’empathie est une aptitude qui nous permet de nous mettre à la place des autres, de comprendre ce qu’ils ressentent. Les robots n’ont, quant à eux, pas d’émotions à partager. Et ils ne peuvent pas se mettre à notre place.

13Ce qu’ils sont en mesure d’accomplir, en revanche, c’est de nous faire réagir. S’ils établissent un contact oculaire avec nous ou font un geste vers nous, ils nous prédisposent à considérer qu’ils pensent et qu’ils se préoccupent de nous. Ils sont programmés pour avoir l’air mignon, pour nous donner envie de les bichonner. Et en matière d’intelligence artificielle « sociable », c’est un modèle redoutable : nous bichonnons ce que nous aimons et nous aimons ce que nous bichonnons. Si un objet informatique ou un robot nous demande de l’aide, nous demande de lui apprendre quelque chose ou de nous occuper de lui, nous nous y attachons. C’est la vulnérabilité humaine. Et c’est une vulnérabilité que les robots sociaux exploitent systématiquement. Plus nous avons d’interactions avec eux, plus nous les aidons et plus nous imaginons que la relation est mutuelle.

14Mais ce n’est pas le cas. Quoi que « disent » (ou couinent) les créatures robotiques, quel que soit le degré d’expressivité ou de sympathie de leur visage de dessin animé, les compagnons numériques ne comprennent pas notre vie affective. Ils se présentent comme des machines empathiques, mais il leur manque l’essentiel : ils n’ont pas l’expérience du déroulement d’une vie. Ils ne sont pas nés, ils ne connaissent pas la douleur, la mort, la peur. Une pensée feinte est peut-être une sorte de pensée mais un sentiment feint ne sera jamais un sentiment. L’amour feint ne sera jamais de l’amour.

15Franck Renucci : Pour vous, est-ce que le fait de ne pas apprendre à un enfant à être seul va paradoxalement le conduire à un isolement social ? « En d’autres termes, (pourquoi) les cyberintimités deviennent des cybersolitudes » ? (p. 41)

16Sherry Turkle : La solitude est importante non seulement parce que c’est le moment où l’on se trouve soi-même, mais aussi parce que c’est un facteur essentiel à la capacité relationnelle de chacun. C’est un passage obligé de l’acceptation des autres.

17Une personne qui se montre incapable d’être seule avec elle-même est aussi incapable d’accepter les autres tels qu’ils sont. Elle devra faire d’eux les êtres dont elle a besoin pour soutenir son fragile sentiment du soi. La capacité d’être seul est le fondement du mutuel. La solitude conforte l’empathie. En paraphrasant le grand D. W. Winnicott, je dirais que si l’on n’apprend pas à être seul, on ne sait qu’être solitaire.

18Dans une récente étude menée auprès d’étudiants en premier cycle à l’université, il leur était demandé s’ils étaient disposés à rester assis seuls sans livre ni smartphone pendant quinze minutes. Ils ont accepté, parce qu’ils étaient payés pour l’expérience. Les chercheurs ont poursuivi leur enquête en demandant aux étudiants s’ils accepteraient de s’infliger des électrochocs pendant ce quart d’heure, et cette fois le refus a été catégorique. Pourtant, après être restés assis tout seuls pendant six minutes sans livre ni téléphone avec une machine à électrochocs à portée de main, les étudiants ont été nombreux à commencer à s’envoyer de faibles électrochocs plutôt que de rester tranquillement plongés dans leurs pensées.

19J’ai mené des enquêtes dans des entreprises où les employés plébiscitent littéralement les réunions téléphoniques (c’est-à-dire qu’ils préfèrent participer à une audioconférence plutôt qu’à une réunion en présentiel). C’est fréquent, et je ne suis pas vraiment étonnée. Je constate d’ailleurs que mes propres étudiants ont de plus en plus de mal à venir me voir pendant mes heures de permanence. Je ne prends pas cela comme un affront personnel. Des études menées à l’échelon national ont montré que ce rejet des rencontres en face-à-face correspondait à une tendance générale chez les étudiants. J’ai participé à plusieurs conférences sur le sujet.

20J’ai donc demandé à mes étudiants par quoi ils souhaitaient remplacer mes heures de permanence et leur réponse a été claire : ils veulent pouvoir m’adresser une question parfaite par courriel et ils veulent que je leur retourne une réponse parfaite par le même canal.

21Quiconque a déjà été illuminé par une idée sait que ce phénomène a peu de chance de transiter par la perfection d’un courriel ou d’une idée mais se souvient plutôt du jour où il a exprimé une idée imparfaite et où un enseignant, un tuteur ou un professeur lui a dit : « Revenez une autre fois, revoyons-nous et réfléchissons à nouveau à ce point ensemble ». À nouveau. Ensemble. Ensemble. À nouveau. Les mots magiques du tutorat.

22Cette idée de question parfaite et de réponse parfaite transforme une rencontre relationnelle en rencontre transactionnelle. C’est ce que propose la technologie. C’est la solution de facilité. Toutefois, pour accepter ce schéma, il faut oublier les leçons de la vie, oublier ce que c’est que d’être enseignant, étudiant, parent, ami. Tout cela n’a rien à voir avec la perfection. Ce qui compte c’est l’empathie et la présence. Ensemble. À nouveau.

23Franck Renucci : « Quand nous imaginons un robot comme un vrai compagnon […], ce qui manque au premier chef est l’altérité : la possibilité de voir le monde à travers les yeux d’autrui. Sans altérité, l’empathie devient impossible » (p. 100). Pourriez-vous commenter cette phrase essentielle pour saisir la différence entre connexion et relation ?

24Sherry Turkle : Les robots, les logiciels n’ont pas de corps. Ils ne savent rien du déroulement d’une vie humaine. Ils ne connaissent pas la douleur, ils ne savent pas ce que c’est que d’être petit et de grandir, de souffrir et d’être soulagé de la souffrance, d’avoir peur de la mort. L’empathie repose sur la capacité de se mettre à la place de quelqu’un d’autre et d’accepter toutes les conséquences que peut entraîner une telle offre vis-à-vis d’autrui. Un robot, aussi intelligent et bien conçu soit-il, ne pourra jamais se mettre dans cette position. Il pourra peut-être passer avec succès le « test de Turing » pour l’empathie. Il existe désormais des machines qui sont capables de nous convaincre, par leur comportement, qu’elles « nous comprennent », qu’elles « nous connaissent » quand nous partageons avec elles des expériences humaines, mais ces expériences reposent sur une supercherie.

25Cela fait des années que nous accordons une grande importance au test de Turing. Nous avons choisi par exemple de faire d’un joueur d’échecs électronique l’équivalent moral d’un joueur d’échecs humain. Mais quand je suis confrontée à la mort, une machine – qui ne peut que feindre de comprendre la signification de la peur de la mort – n’a aucune utilité humaine pour moi. J’ai besoin d’une conversation et la machine ne me propose qu’une connexion. Dans mon ouvrage Seuls ensemble, et dans mon livre suivant Reclaiming Conversation, je m’interroge sur ce que nous perdons en parlant aux machines. Ce que nous perdons, c’est notre humanité.

26Franck Renucci : Pourquoi a-t-on perdu de vue l’importance, le travail de la conversation, ce qu’elle produit ?

27Sherry Turkle : C’est dans la conversation, dans la présence véritable que l’empathie se développe, que l’intimité s’installe. Ce que j’appelle « la fuite devant la conversation » est une fuite devant l’angoisse de la présence. Nous avons peur de ne pas paraître parfaits, nous avons peur de la spontanéité, nous avons peur d’être impliqués, de devoir nous engager. Tout cela est devenu redoutable parce que nous avons désormais la possibilité de nous cacher les uns des autres. La technologie nous donne ce choix. Nous nous cachons derrière un écran quand nous envoyons un texto, un courriel ou un message de chat. J’ai demandé à un jeune homme qui me disait qu’il faisait tout pour éviter une conversation pour quelles raisons il préférait communiquer par texto. Sa réponse a été immédiate : « La conversation, je vais vous dire ce qui me gêne dans la conversation. Cela se passe en temps réel et il n’y a pas moyen de contrôler ce qu’on va dire. »

28Cette remarque résume parfaitement toute une série de composantes de la vie que la technologie nous encourage à oublier. L’importance du temps réel. L’acceptation de l’imperfection. L’importance de vivre une vie brute, « non révisée ». L’importance de savoir tenir une conversation, ce qui est difficile. La technologie nous a peut-être apporté les plaisirs des échanges contrôlés mais voilà ce que nous enseigne la vie : nous sommes perdants en tant qu’individus et en tant que citoyens d’une démocratie quand nous ne prenons par le temps de nous parler les uns aux autres, quand nous n’apprenons pas à nous écouter mutuellement, en particulier à écouter des personnes qui sont différentes de nous.

29Franck Renucci : Pourquoi un robot conversationnel de type Siri ne peut-il que prétendre à une relation d’empathie, d’amitié ? Ne pas le reconnaître dès aujourd’hui ne provoquera-t-il pas de dégâts pour toute une génération d’enfants ?

30Sherry Turkle : Siri, Alexa ou Echo, ou encore Jibo ne proposent que des relations simulées. Ils prétendent pourtant être parfaitement capables de proposer une amitié pleine et entière. Jibo, qui a eu les honneurs de la couverture du numéro de Time sur les cent meilleures inventions de 2017, se présente comme le meilleur ami de toute la famille. En faisant passer une empathie feinte pour de l’empathie, nous oublions ce qu’est réellement l’empathie. C’est cela qui est dangereux. Que les adultes établissent une relation « prétendument empathique » avec Jibo, en faisant un petit clin d’œil et en sachant parfaitement ce qu’ils font, c’est une chose. Mais pour les enfants, c’est différent : ils y mettent tout leur cœur. Il me semble que la façon dont nous introduisons ces technologies revient à faire des expériences dans lesquelles nos enfants sont des cobayes humains.

31Le directeur des produits du fabricant de jouets Mattel a lui-même reconnu qu’on abordait là un territoire nouveau. Il a déclaré à propos d’un objet social que son entreprise s’apprête à mettre sur le marché : « Si ça marche, les enfants devraient nouer des liens affectifs avec cet objet. Espérons que ce sera le bon type de liens affectifs. »

32Il est pourtant difficile d’imaginer ce que pourrait être « ce bon type de liens ». Ces objets ne peuvent pas avoir une relation mutuelle avec nos enfants. Ce sont des machines qui sont conçues pour placer les enfants face à une empathie feinte. Et si nous plaçons nos enfants dans cette position, nous ne pouvons pas nous attendre à ce qu’ils comprennent ce qu’est l’empathie. Si nous leur donnons des relations simulées, nous ne pouvons pas nous attendre à ce qu’ils comprennent comment fonctionnent les véritables relations – celles qui sont désordonnées et chaotiques. Bien au contraire, ils s’habitueront à une relation superficielle et inauthentique dont ils penseront qu’elle est réelle.

33Que le chaotique devienne ordonné : cela peut sembler appréciable. C’est plus sûr et moins exigeant. Même les plus jeunes enfants se rendent compte que les robots chiens présentent certains avantages par rapport aux vrais chiens : ils n’ont pas de sautes d’humeur, il n’est pas nécessaire de les laver, ils ne sont jamais malades, ils vous aiment toujours et en plus « on ne les perdra pas, ils ne mourront jamais ». On commence par penser que l’attachement aux machines est un pis-aller, que c’est mieux que rien, que c’est pratique quand il n’y a pas de parent ou de baby-sitter disponible. Ensuite, on en vient assez rapidement à penser qu’au-delà des enfants, ces amis robotiques sont une bonne chose pour les personnes âgées et les personnes isolées. Mes recherches montrent que si les gens commencent souvent par penser qu’un ami robotique, c’est mieux que rien, ils en viennent rapidement à considérer que c’est mieux que tout, mieux que toute autre chose que la vie humaine pourrait proposer. Une présence constante qu’on n’a pas peur de voir disparaître. Ce faisant, nous risquons néanmoins d’oublier ce qui est essentiel à notre humanité : la véritable compréhension mutuelle.

34Nous rêvons depuis si longtemps d’une intelligence artificielle ne va pas seulement nous apporter une aide utilitaire mais aussi le simple secours de la conversation et de l’attention. À l’heure où notre fantasme devient réalité, il est temps d’affronter les inconvénients affectifs qu’implique la vie avec les robots de nos rêves. C’est le moment où jamais d’en parler !

Références bibliographiques

  • Dreyfus, H. L., « Why Computers Need Bodies In Order To Be Intelligent », The Review of Metaphysics, vol. 21, n° 1, 1967, p. 13-32.
  • Turkle, S., Seuls ensemble. De plus en plus de technologies, de moins en moins de relations humaines, Paris, L’Échappée, 2015 [2011].
  • Turkle, S., Reclaiming Conversation, New York, Penguin, 2015.

Date de mise en ligne : 25/05/2018

https://doi.org/10.3917/herm.080.0230

Note

  • [1]
    Toutes les citations sont extraites de Seuls ensemble.

Domaines

Sciences Humaines et Sociales

Sciences, techniques et médecine

Droit et Administration

bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Retrouvez Cairn.info sur

Avec le soutien de

18.97.14.87

Accès institutions

Rechercher

Toutes les institutions