Notes
-
[1]
Département statistique de la Fédération internationale de robotique à Francfort.
-
[2]
Film de science-fiction de Ridley Scott (États-Unis). Sortie en France le 15 septembre 1982.
-
[3]
Ces lois, rappelons-le, ont été imaginées par l’écrivain Isaac Asimov (1920-1992) et exposées pour la première fois dans sa nouvelle Cercle vicieux (Runaround, 1942). Ces lois sont : 1. Un robot ne peut porter atteinte à un être humain, ni en restant passif permettre qu’un être humain soit exposé au danger. 2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi. 3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.
1La console de jeux la plus vendue dans le monde propose à ses utilisateurs un animal virtuel. L’animal – un petit chien – est beaucoup plus perfectionné que les « tamagoshis » apparus dans les années 1990, et les interactions avec lui sont beaucoup plus complexes : il peut être caressé par écran tactile interposé et, si son propriétaire s’en occupe suffisamment bien, il répond à l’appel de son nom en se dirigeant vers le devant de l’écran. Pour une dizaine d’euros, on peut aussi se procurer en France de petits insectes numériques qui réagissent au toucher et au bruit. Au Japon, où ces recherches sont poussées plus loin que partout ailleurs à la fois pour des raisons démographiques et hygiénistes, les maisons de retraite proposent à leurs pensionnaires âgés un robot imitant vaguement la forme d’un gros phoque débonnaire avec lequel les pensionnaires sont invités à développer diverses formes d’interaction. La machine est recouverte de fourrure et mesure près d’un mètre. Elle répond par ses mouvements, ses regards et ses mimiques aux propositions des personnes âgées. Diverses recherches ont montré que ces interactions aident efficacement à lutter contre les troubles dépressifs et la tendance au repli social.
2Enfin, des chercheurs anglais ont confié à des personnes seules des robots ressemblant vaguement à des chiens. Quelques mois plus tard, quand ils vinrent récupérer les animaux de plastique et de silicium, les personnes âgées dirent leur tristesse : elles avaient vraiment eu l’impression que ces compagnons mécaniques les écoutaient et les comprenaient. Certaines ajoutèrent même : « Je sais bien que ce n’est pas vrai, mais je ne peux pas m’empêcher de le penser. »
Nous allons d’abord examiner quelle forme de relations ces objets nouveaux suscitent, puis envisager la façon dont ils risquent de modifier à terme les conditions de nos relations aux animaux, aux machines, et peut-être aussi aux humains.
Interagir avec un animal numérique
3Quand on parle de relations aux machines, c’est souvent avec une idée simpliste : nous les commandons, elles obéissent. Notre relation à elles serait sans surprise, dominée par la prédictibilité. Mais ce modèle, qui est celui de la machine mécanique, n’est plus celui de la machine numérique (S. Tisseron, 1998). De nouvelles formes de relations aux machines sont en train d’apparaître, dans lesquelles c’est justement leur caractère imprévisible qui est recherché… mais dans des limites prévisibles ! Bref, exactement comme avec les animaux et les humains : l’absence de surprise ennuie, mais trop d’imprévisibilité insécurise. Les nouvelles formes de relation développées dans la pratique des jeux vidéo, notamment avec les animaux virtuels, préfigurent ces interactions.
Animal virtuel, mon frère
4L’adulte qui observe un adolescent jouer à un jeu vidéo est souvent scandalisé. Il ne voit que sang, violence, combats… Et il en déduit bien souvent que c’est là les images que l’enfant fabrique parce qu’il a envie de les voir. Mais ce que cet adulte ignore, c’est qu’il n’assiste qu’à une toute petite partie des enjeux. Sa posture d’observateur lui permet d’assister aux combats que le joueur mène pour atteindre son but, mais le laisse dans l’ignorance des stratégies que celui-ci applique et surtout des problèmes émotionnels qu’il doit gérer en chemin. En fait, dans ce domaine, tout dépend des choix de l’utilisateur. Rappelons d’abord que le joueur joue en utilisant une créature de pixels qu’on appelle un « avatar ». Ce mot provient de la langue indoue dans laquelle il désigne les incarnations du dieu Vishnou sur terre. Il peut consister en un simple pseudonyme, mais le plus souvent, il prend la forme d’une créature d’apparence animale, ou mi-humain mi-animal. Il existe alors deux façons de jouer : l’une favorise le développement de relations riches et complexes avec sa créature virtuelle et celles des autres joueurs, tandis que l’autre les en dissuade.
5Commençons par celle-ci. Elle s’organise essentiellement autour de la sensori-motricité. Le joueur centre son activité sur le repérage de certains objets qu’il détruit ou dont il s’empare. Le stress, l’angoisse, la peur et la colère en cas d’échec sont au premier plan. C’est un peu comme au baby-foot ! L’enfant ne se soucie pas de construire une histoire, mais de s’emparer du ballon et de marquer des points. Cette manière de jouer n’est pas négative en soi. Elle favorise la maîtrise des émotions extrêmes, la qualité des réflexes, la coordination œil-main. Aux débuts des jeux vidéo, elle était la seule possible du fait des limites que la technologie leur imposait. Il n’est donc pas étonnant qu’elle corresponde à l’image qu’un grand nombre d’adultes s’en font…
6Mais il existe une autre façon de jouer dans laquelle les sensations et les réponses motrices sont moins importantes et où l’identification et l’empathie sont centrales. Le joueur a des sentiments et même des sensations pour sa créature virtuelle et celles des autres joueurs. En effet, les situations où est impliquée une créature virtuelle peuvent être ressenties non seulement émotionnellement, mais même physiquement. Dans les années 1980, le jeu Donjon Master invitait le joueur à conduire son personnage au milieu des embûches d’un souterrain. Parmi les obstacles rencontrés se trouvait un mur invisible. Le joueur – ou plutôt son avatar ! – s’y cognait, et gémissait. Et lorsqu’il tentait de jeter une arme de l’autre côté, celle-ci ricochait et le frappait de telle façon que l’avatar gémissait et que sa force faiblissait. Je me souviens avoir vécu une vraie souffrance lorsque mon personnage fut confronté à ce mur et se mit à geindre. Une souffrance d’autant plus vive que je n’en compris pas tout de suite l’origine. Je me fis l’effet d’être comme une mère qui promènerait son bébé et qui l’entendrait soudain gémir. La douleur que je ressentais n’était pas de l’ordre d’une souffrance perçue en première personne, mais comparable à celle qu’on peut éprouver par empathie pour quelqu’un d’extrêmement proche et qui souffre. En fait, à ce moment-là, tout se passait comme si je découvrais que l’avatar avec lequel je croyais m’être confondu – je le dirigeais dans le labyrinthe comme j’aurais pu m’y diriger moi-même – était aussi mon enfant.
L’avatar a en effet cette double polarité. Quand nous le dirigeons et agissons, il est nous-mêmes. Mais quand il est en situation d’éprouver des sensations, il est notre enfant. C’est de cette façon qu’il faut comprendre, à mon avis, les propos d’une jeune femme adepte de Second Life qui disait ressentir le picotement des bulles sur sa peau quand elle plongeait sa créature virtuelle dans un jacuzzi tout aussi virtuel ! En fait, les picotements qu’elle ressentait étaient bien de l’ordre d’une sensation physique, mais cette sensation n’était pas directe comme lorsqu’on se trouve soi-même dans cette situation. Elle était indirecte, et comparable à ce qu’on peut éprouver quand on voit quelqu’un dans cette situation. Autrement dit, elle était de l’ordre de l’empathie, et précisément de l’ordre de cette forme d’empathie primaire dans laquelle on s’imagine ressentir ce que l’autre ressent à partir de ses propres expériences. Les moments vécus avec intensité laissent subsister de telles traces mnésiques qui ne demandent qu’à être ranimées par le spectacle d’une situation qui les rappelle. Tous ceux qui ont souffert sous la fraise d’un dentiste savent que l’image de quelqu’un dans cette situation – voire le simple bruit de l’instrument – suffit à réveiller des sensations pénibles ! C’est pourquoi, et bien qu’elle ne m’en ait jamais parlé, je pense que la jeune femme au jacuzzi virtuel en avait un bien réel. Sinon, elle aurait eu moins de sensations en y plongeant son avatar !
De la recherche du plaisir à l’évitement du déplaisir
7Quand les interactions sensori-motices et les interactions empathiques alternent, les mondes virtuels constituent un espace potentiel qui est le support de bénéfices semblables à tous les autres jeux (D. W. Winnicott, 1942). C’est le cas lorsque les premiers échanges avec l’environnement ont été satisfaisants. L’adolescent constitue les mondes virtuels et les créatures qui les habitent en territoires de significations dans lesquels les enjeux symboliques sont au premier plan.
8Au contraire, quand les interactions sensori-motrices deviennent exclusives, le jeu devient une activité mentale compulsive et dissociée. Il y a échec de l’espace transitionnel. C’est notamment le cas lorsque le joueur veut fuir une situation angoissante ou douloureuse, qu’elle soit d’origine physique ou psychique. Tel est le cas lorsque l’histoire précoce de l’enfant a été marquée par l’insécurité, des excitations insuffisantes ou inadaptées, ou encore des frustrations narcissiques excessives. Le risque est que l’adolescent qu’il devient tente d’utiliser l’ordinateur non pas comme un espace de significations symboliques, mais comme un partenaire privilégié d’interactions. L’utilisateur établit avec la machine une relation sur le modèle de la relation première qu’un enfant établit avec son environnement, de telle façon qu’il soit dans « l’illusion de créer le monde » (D.W. Winnicott, 1971). Cette dyade idéalisée et sur mesure – ou encore « dyade numérique » (S. Tisseron, 2006) – s’organise autour des deux pôles de l’emprise et de la satisfaction. Elle se nourrit de l’illusion de pouvoir réparer une relation primaire défectueuse. Il ne faut donc pas s’étonner de la trouver chez des adolescents présentant des troubles de l’attachement, de l’estime de soi, voire des tendances psychotiques. Mais elle n’est pas exclusive de ces pathologies, et ces pathologies ne s’orientent pas toutes vers la création d’une « dyade numérique » ! La créature virtuelle permet alors, selon les cas, de ne jamais se séparer (on la retrouve partout grâce à son téléphone mobile ou son ordinateur), de fabriquer un partenaire d’interactions et d’excitations sur mesure, ou encore de construire, par créature interposée, une représentation idéalisée de soi (S. Tisseron, 2006).
De l’animal virtuel au robot de compagnie
9Ces relations que nous entretenons avec les créatures virtuelles de nos écrans préfigurent indiscutablement celles que nous aurons demain avec les robots de compagnie. Et c’est d’ailleurs ce qui rend leur étude si nécessaire. Mais pour bien en situer les enjeux, il nous faut maintenant dire quelques mots de l’autre pôle qui donne sa forme à nombre de créatures virtuelles : l’animal.
10Il existe deux façons de ne pas reconnaître l’animal réel : c’est de le voir comme une machine ou de le considérer au même titre qu’un être humain, doué des mêmes émotions et des mêmes états d’âme. Or, l’animal n’est ni un « objet » ni un « sujet », il appartient à une troisième catégorie. La relation avec nos animaux domestiques, qui sont des vivants non humains, est le chaînon intermédiaire entre nos relations avec nos semblables et celles que nous entretenons avec les objets qui ont parfois, comme on sait, « une âme ». Pourtant, tous les amateurs d’animaux domestiques se sont surpris un jour ou l’autre à se dire : « Il ne leur manque que la parole. » Le propriétaire d’un chat ou d’un chien est en effet enclin à imaginer que son animal éprouve les mêmes émotions que lui, et certains pensent même parfois ressentir les mêmes choses que leur animal domestique. Alors, une fois admis que l’empathie fonctionne entre l’homme et l’animal aussi bien qu’entre l’homme et l’homme, où faire la différence ? C’est qu’il existe deux formes d’empathie, l’une directe et l’autre réciproque. Dans la première, je me mets à la place de l’autre, mais dans la seconde, je lui reconnais le droit de se mettre à la mienne et j’en attends qu’il me donne son point de vue sur ce qu’il perçoit et comprend de moi. La première de ces empathies est courante avec les animaux, mais la seconde est difficile. C’est pourquoi nous pouvons avoir avec eux une relation intime, voire même excessivement intime, mais que nous n’aurons jamais avec eux une relation « extime » (S. Tisseron, 2001) au sens où il est difficilement imaginable d’attendre d’eux qu’ils nous donnent leur avis sur ce que nous leur dévoilons de notre intimité.
11Venons-en maintenant aux animaux robots, dont les créatures virtuelles de nos écrans sont encore une fois la préfiguration. La question n’est pas théorique. D’ici à fin 2011, environ douze millions de robots de service seront vendus dans le monde [1]. Comment les considèrerons-nous ? Et d’abord, est-ce utile qu’ils nous ressemblent pour que nous nous sentions en empathie avec eux ? Non, bien au contraire. Le chercheur en robotique Masahiro Mori (1970) a même montré que la différence d’apparence entre un humain et un robot est essentielle pour que nous acceptions celui-ci. Le mieux est que le robot tienne à la fois de l’humain (par sa position debout), de l’animal (par ses « expressions ») et de la machine (par la matière qui le constitue). En fait, au fur et à mesure qu’un robot ressemble à un être humain, notre sympathie à son égard augmente, mais jusqu’à un certain point seulement. Lorsque cette ressemblance devient trop grande, notre sympathie vis-à-vis du robot chute brutalement. C’est ce que Masahiro Mori a appelé « la vallée de l’angoisse ». Leur ressemblance trop réaliste devient angoissante parce qu’elle évoque les zombies ou les revenants.
12Si la ressemblance d’apparence du robot avec un humain angoisse, en revanche, sa ressemblance d’attitudes et de mouvements rassure, et encore plus quand elle est un peu raide et maladroite comme celle d’un enfant. Souvenons-nous de La Guerre des étoiles et de son inoubliable R2-D2. Il ne ressemble ni à un adulte ni à un enfant, plutôt à un tonneau sur pattes ! Et pourtant, quand il se met à trépigner sur ses deux moignons au moment de la remise des médailles par la reine, tous les spectateurs, quels que soient leur âge et leur sexe, pensent à leur enfance et aux envies pressantes qui accompagnaient les grandes occasions. R2-D2 n’a donc pas pris ses précautions ? A-t-il une vessie ? Nous savons bien que non ! Un robot n’a pas de besoin physiologique, tout au moins pas au sens où nous l’entendons : un peu d’huile, sans doute, et des batteries neuves, mais rien de comparable avec le cycle de notre digestion. Mais il suffit qu’il se dandine d’un pied sur l’autre pour qu’aussitôt la mémoire sensorielle de nos envies pressantes d’enfant nous envahisse. C’est d’autant plus spectaculaire que le même film nous montre un gigantesque escadron de centaines de robots uniformes, à l’expression parfaitement identique, et pour lesquels le spectateur n’éprouve jamais la moindre empathie : il est même plutôt content quand il voit une bombe tomber sur cette armée et en anéantir instantanément un grand nombre. Dans La Guerre des étoiles, nous éprouvons donc de l’empathie pour R2-D2 alors que leurs adversaires, ni plus ni moins robots, ne sont à nos yeux que des morceaux de métal. Et c’est un peu la même chose avec C-3PO, l’autre humanoïde de La Guerre des étoiles à cette différence que lui n’évoque pas le très jeune enfant, mais plutôt le préadolescent. En outre, les deux compères de tôle et de silicium ont un autre atout. Ils ont une histoire. C-3PO et R2-D2 pourraient dire : « je me souviens… » un petit peu comme dans le célèbre texte de Pérec. Dans un autre film de science-fiction, Blade Runner [2], la caractéristique des humanoïdes est de ne pas avoir de mémoire de leur histoire. Dans ce film, « Parlez-moi de votre enfance » est la phrase susceptible de pouvoir distinguer les humains des humanoïdes. Avec C-3PO et R2-D2, c’est différent. Si nous les rencontrions, il nous semblerait possible de leur parler de nous et qu’ils nous parlent d’eux. C’est même la question la plus excitante qu’on peut avoir aujourd’hui autour des robots. Seront-ils un jour capables de nous raconter leur vie de robots, leurs découvertes de la marche, du langage, de l’environnement, un peu comme un adulte qui se souvient de son enfance peut le faire ? Les robots de l’avenir nous aideront certainement beaucoup dans l’accomplissement des tâches quotidiennes, mais ils nous apprendront plus encore le jour où ils deviendront capables de mettre en mots leurs diverses expériences du monde, à condition bien entendu que nous sachions déchiffrer le langage qu’ils inventeront (F. Kaplan, 2001). Car c’est avec leurs propres mots qu’ils sauront le mieux parler d’eux.
C’est ce qui risque de donner aux robots du futur un charme bien supérieur à celui des êtres humains. D’un côté, ils seront suffisamment sophistiqués pour ressembler à R2-D2 ou C-3PO. C’est-à-dire que nous pourrons avoir avec eux des échanges dans lesquels ils nous parleront d’eux, et lorsque nous leur parlerons de nous, ils nous répondront en nous parlant eux aussi de nous ! Mais s’ils ne correspondent pas à nos attentes, nous aurons aussitôt la possibilité de leur ôter quelques circuits de façon à les rendre, au moins provisoirement, à leur statut de simple utilitaire. Ils redeviendront un élément indistinct de la vaste colonie des robots qui se contentent d’obéir mécaniquement comme des zombies aux instructions qu’on leur donne. Nous pourrons en faire de simples choses non seulement du fait de notre intention – comme nous le faisons lorsque nous dénions à un être humain le droit d’avoir des émotions – mais même en réalité. Il suffira pour cela de leur enlever les quelques circuits d’intelligence artificielle qui les distinguent d’un décapsuleur ou d’une voiture. Nous pourrons, au choix, les aborder comme des êtres humains ou comme des objets interchangeables. C’est pourquoi la question de l’empathie est appelée à déborder largement le cadre des relations interhumaines. D’une certaine façon, c’est déjà le cas : certains d’entre nous sont capables de considérer que des objets de leur environnement sont plus précieux pour eux que des êtres humains. Seul dans ma chambre, je peux entendre à la radio que vingt mille personnes sont mortes dans un tremblement de terre aux Philippines et rester préoccupé par l’état d’un bibelot tombé d’une étagère…
Mais aussi loin que nous prêterons aux robots la possibilité de penser comme nous, notre empathie à leur égard restera toujours unilatérale. Même si nous leur accordons un jour la capacité de penser comme nous, nous n’irons probablement jamais jusqu’à penser que nous puissions ressentir les choses comme eux. Et c’est ce qui distinguera toujours la relation que nous aurons avec eux de celle que nous avons avec nos semblables… c’est-à-dire plutôt avec ceux de nos semblables que nous avons renoncé à considérer comme des robots. Penser que l’autre soit capable de penser comme soi ne veut pas dire qu’on imagine penser comme l’autre, et encore moins que l’on considère que les pensées d’autrui à notre sujet puissent nous permettre de nous découvrir autrement. Cela constituera toujours la grande différence dans nos relations avec les animaux réels et avec les robots. Nous pouvons à la rigueur nous imaginer à la place d’un animal – et les enfants autistes y réussissent même particulièrement bien –, mais il nous est difficile de penser que nous puissions nous mettre à la place d’un robot. Pourtant, c’est bel et bien le rêve de certains de ceux qui les construisent…
Comment l’esprit vient aux robots
13Hiroshi Ishiguro travaille à l’université d’Osaka. J’ai visité son laboratoire en janvier 2009 et j’avoue que j’en suis ressorti très bouleversé. Ce n’est pas parce qu’il est en train de construire des robots capables de se mouvoir, d’interagir, de nous regarder et de nous parler comme le font des humains. En effet, un robot peut nous ressembler comme un frère (et celui de Hiroshi Ishiguro lui ressemble même comme un frère jumeau !), cela n’implique pas que nous le considérions pour autant comme un humain.
14Ce qui donne un parfum d’étrangeté à cette visite est différent : Hiroshi Ishiguro nous invite à considérer les robots de demain ni comme des machines ni même comme des animaux, mais comme nos enfants ! Non pas comme ses enfants à lui, dont nous prendrions livraison en remerciant leur concepteur, mais comme nos enfants à nous que nous serions appelés à mettre au monde et à élever. Pour parvenir à ce résultat, Hiroshi Ishiguro est parti de l’idée que le robot ne devait pas apparaître à son propriétaire comme une force susceptible de le menacer. Il doit donc avoir l’air d’un jeune enfant plutôt que d’un adulte. Bien sûr, sa force est très supérieure à celle d’un humain, mais son apparence doit évoquer l’innocence, la fragilité et surtout l’incomplétude. Il est donc redressé par son propriétaire qui lui fait ainsi découvrir la station verticale. Nous sommes évidemment ici dans la métaphore de la naissance. Et on peut imaginer que, comme dans Intelligence artificielle, ce soit à ce moment-là que le robot ouvre les yeux et mémorise le visage de son propriétaire, devenant du même coup capable de le reconnaître parmi des centaines, voire des milliers d’autre : cette capacité existe d’ores et déjà.
15Mais Hiroshi Ishiguro a encore accompli un pas de plus, qui mobilise chez moi, je l’avoue, un mélange d’admiration et d’effroi. Il a eu l’idée que le propriétaire du robot éduque celui-ci… par son sourire. Bien évidemment, cette idée a dû lui être soufflée par quelques psychiatres. Les spécialistes de la petite enfance savent combien les émotions maternelles sont un repère essentiel dans la construction de la vision du monde et de lui-même par le bébé. Par exemple, il tente de marcher et tombe. Que fait-il en premier ? Essayer de se redresser ? Pas du tout : il cherche d’abord le visage de sa mère. Si celle-ci lui sourit, il se remet debout et recommence à marcher. Mais si celle-ci semble inquiète ou lui manifeste de la colère, le bébé s’immobilise et pleure. Dans le premier cas, il acquiert de la confiance en lui et dans son environnement et il se trouve gagnant à la fois du point de vue de ses apprentissages et de son estime de lui-même. Dans le second cas, au contraire, il est insécurisé et risque d’inhiber ses capacités d’exploration.
16C’est le même système qu’Hiroshi Ishiguro a imaginé pour l’éducation des robots. Les personnes âgées qui en recevront un chez elles (n’oublions pas qu’au Japon, elles vont être très nombreuses dans peu d’années) n’auront pas à tapoter sur un clavier pour le programmer à faire le ménage, la vaisselle ou les porter dans leur lit. Elles feront tout cela… avec leur sourire ! Il suffira de montrer au robot une action en lui souriant, et il tentera de la reproduire. S’il réussit, le sourire de son propriétaire l’encouragera à continuer. S’il ne fait pas ce qui est attendu de lui, une mimique désapprobatrice ralentira ou inhibera ses processus d’apprentissage. Dans l’apprentissage du bébé, ce rôle est dévolu à une personne privilégiée qui est appelée la « mère » de l’enfant, même s’il s’agit d’une mère adoptive, voire d’un homme dans un couple homosexuel. Hiroshi Ishiguro a repris ce terme et décidé d’appeler la personne en charge de l’éducation du robot sa « mère ».
17Les conséquences sont considérables. Ce mode d’interaction ne développera pas seulement la capacité du robot à apprendre exactement ce qu’attend sa « mère ». Il aura aussi pour conséquence de mobiliser un vif attachement de celle-ci à « son » robot dans la mesure où elle aura été obligée d’interagir avec lui sur un mode empathique tout au long du programme éducatif. Bref, ce que ce projet met en place, ce sont les conditions d’une empathie entre l’homme et la machine. Une empathie dont les conséquences sont encore inimaginables : l’être humain n’était jamais arrivé à fabriquer un enfant qui ne le quitte jamais et le serve jusqu’à sa mort. Hiroshi Ishiguro a inventé un robot qui n’aura pas seulement cette fonction concrète, mais probablement aussi cette fonction affective.
Serons-nous plus ou moins humains lorsque nous serons capables de développer de l’empathie pour une machine ? Assurément ni l’un ni l’autre, mais la tentation sera probablement moins grande de chercher à communiquer avec des humains différents de soi dans la mesure où chacun pourra s’entourer d’un ou de plusieurs robots correspondant parfaitement à ses attentes et à son système de valeurs…
Il est bien évident qu’au passage, les fameuses « lois » imaginées par l’écrivain de science-fiction Asimov [3] sont balayées. Le propriétaire de chaque robot pourra lui apprendre ce qui lui fait plaisir, que cela soit licite ou non. Mais n’est-ce pas déjà la même chose avec les enfants ? Bien sûr, mais les enfants n’ont pas que leurs parents pour les éduquer, et encore moins exclusivement leur mère ! L’autre parent peut corriger les effets nocifs ou antisociaux du parent privilégié, et l’école les modifie encore ensuite. Si le système développé aujourd’hui par Hiroshi Ishiguro devait être appliqué à large échelle, j’imagine qu’il faudrait prévoir un correctif : programmer les robots pour qu’ils s’autoconnectent régulièrement sur Internet de manière à entrer des données susceptibles de corriger une éventuelle éducation « maternelle » déviante ou pathologisante. Bref, une sorte d’école des robots parallèlement à leur éducation familiale !
Bibliographie
Références bibliographiques
- Abraham N., Torok M. (1978), L’Écorce et le Noyau, Paris, Flammarion.
- Buckingham D. (2000), La Mort de l’enfance. Grandir à l’âge des médias, Paris, Armand Colin, 2010.
- Kaplan F. (2001), La Naissance d’une langue chez les robots, Paris, Hermès Science Publications.
- Masahiro M. (1970), Uncanny Valley, Energy, 7 (4), p. 33-35.
- Tisseron S. (2006), Le virtuel, une relation, Tisseron S. et al., L’Enfant au risque du virtuel, Paris, Dunod.
- – (2008), Virtuel mon amour. Penser, aimer, souffrir, à l’ère des nouvelles technologies, Paris, Albin Michel.
- Tomasello M. (2001), The Cultural Origins of Human Cognition, Cambridge (ma), Harvard University Press.
- Tremblay R. (2008), Prévenir la violence dès la petite enfance, Paris, Odile Jacob.
- Winnicott D. W. (1973), Jeu et réalité, Paris, Payot, 1978.
Mots-clés éditeurs : virtuel robot, animal, empathie
Mise en ligne 06/04/2011
https://doi.org/10.3917/rfp.751.0149Notes
-
[1]
Département statistique de la Fédération internationale de robotique à Francfort.
-
[2]
Film de science-fiction de Ridley Scott (États-Unis). Sortie en France le 15 septembre 1982.
-
[3]
Ces lois, rappelons-le, ont été imaginées par l’écrivain Isaac Asimov (1920-1992) et exposées pour la première fois dans sa nouvelle Cercle vicieux (Runaround, 1942). Ces lois sont : 1. Un robot ne peut porter atteinte à un être humain, ni en restant passif permettre qu’un être humain soit exposé au danger. 2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi. 3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.