Couverture de QDM_192

Article de revue

Vers une éthique de la robotique

Towards an ethic of robotics

Pages 67 à 84

Notes

  • [1]
  • [2]
    Le terme de robot a été créé par le tchèque Karel Capek dans une pièce de science-fiction de 1920 appelée R.U.R. (Rossumovi Univerzální Roboti).
  • [3]
    « Machine équipée de capteurs ou d’instruments de détection de signaux d’entrée ou d’états environnementaux mais comprenant aussi des mécanismes de réaction ou d’orientation et pouvant effectuer des tâches de détection, de calcul ou autres, et des programmes enregistrés déterminant la consécution des actions. » (Rosenberg, 1986, p.161).
  • [4]
    « Machine intelligente pouvant exécuter des tâches mécaniques courantes, répétitives ou dangereuses, ou d’autres opérations directement sur commande d’un être humain ou de façon autonome, en utilisant un ordinateur à logiciel intégré (contenant des commandes et des instructions préalablement enregistrées) ou reposant sur un niveau avancé d’intelligence machinique (artificielle) (qui permet de baser les décisions et les actions sur les données recueillies par le robot sur son environnement actuel) » (Angelo, 2007, p.309).
  • [5]
    Par Joseph Engelberger et George Devol pour la chaîne de montage de General Motors à Trenton dans le New Jersey.
  • [6]
    Shakey, un robot à roues conçu par Charles Rosen et ses associés du Centre pour l’intelligence artificielle en Californie.
  • [7]
    C’est pourquoi les développeurs proposent des systèmes de reconnaissance vocale et de synthèse vocale de plus en plus perfectionnés. Par exemple, les robots humanoïdes Wakamaru (Mitsubishi) et Nao (Aldebaran Robotics) peuvent communiquer avec des êtres humains à la fois par le geste et la parole (Bekey, 2012).
  • [8]
    Dans le cas de nanorobots organiques, il s’agit de machines moléculaires naturelles constituées d’un assemblage de protéines dotées de fonctions biologiques préprogrammées pouvant être activées en réponse à des stimuli physicochimiques spécifiques in vitro ou dans un milieu artificiel. Les nanorobots organiques ont des capacités spécifiques, telles que leur durabilité, leur activation rapide, leur aptitude à extraire de l’énergie, leur intelligence collective, leur facilité à se reproduire et leur architecture d’interfaces depuis le niveau nano jusqu’au niveau macro (Weir et al., 2005), avec des applications surtout médicales.
  • [9]
    C’est ainsi que le robot Kismet, conçu un demi-siècle après le robot Shakey, a pour but d’obtenir une interaction sociale entre le robot et les êtres humains : il peut remuer les yeux, changer d’expression faciale en fonction de son humeur, communiquer par la parole avec des êtres humains et réagir aux émotions de son interlocuteur.
  • [10]
    L’article met en question deux tabous, le « totémisme » de la norme et celui de l’instantanéité, le premier qui invite à résoudre l’antinomie entre une recherche de prévisibilité et le besoin d’innovation et le second qui questionne le rapport au temps comme levier de transformation des mentalités, de refonte des systèmes et des pratiques des organisations, en vue de concevoir un management qui permette d’atteindre une performance socioéconomique durable.
  • [11]
    Les opérateurs de drones se trouvent à distance de la machine armée, isolant leurs actes, pratiquement proche d’un jeu, de toute considération morale.
  • [12]
    Il s’agit de mettre en balance l’avantage militaire attendu et le risque de pertes de vies civiles.
  • [13]
    Un rapport de la Royal Society (2017) relève que les machines sont incapables de faire preuve de « sens commun » lorsque la situation devient complexe.
  • [14]
    La Convention de La Haye requiert qu’un combattant soit « commandé par une personne » (Conférence internationale de la paix, 1899, Art. 1 de l’Annexe de la Convention). Le développement des armes autonomes se poursuivant, les systèmes de défense autonomes d’un État pourront entrer dans une relation interactive avec les armes autonomes de vitesse équivalente d’un autre État, pouvant conduire par inadvertance au déclenchement d’un conflit armé avant même que des êtres humains aient eu la possibilité de réagir.
  • [15]
    Déjà la capacité de cibler à une grande distance a ouvert la pratique des assassinats ciblés, qui sont devenus plus aisés grâce aux systèmes robotiques.
  • [16]
    Des drones équipés de logiciels de reconnaissance faciale, de technologie infrarouge et de micros, permettant d’enregistrer des conversations personnelles, constituent en effet une atteinte sans précédent au droit au respect de la vie privée.
  • [17]
    D’autres exemples de ce dilemme sont proposés par Bonnefon et al. (2016, p.1576) :
    Est-il acceptable qu’un véhicule autonome, pour éviter une moto, fasse un écart et entre dans un mur, la probabilité de survie en pareil cas étant plus grande pour le passager du véhicule que pour le conducteur de la moto ?
    La décision doit-elle être différente lorsque des enfants sont à bord du véhicule, puisqu’ils ont plus longtemps à vivre en tant que futurs adultes et moins de contrôle sur la décision qui les a conduits à être présents dans le véhicule ?
    Si un fabricant offre des versions différentes de son algorithme moral et qu’un acheteur en choisit une en connaissance de cause, l’acheteur doit-il être tenu pour responsable des conséquences néfastes des décisions de l’algorithme ?
  • [18]
    Il offre plus de confort pour le chirurgien, une réduction de la durée d’hospitalisation et une perte de sang moindre pour le patient, minimisant ainsi le traumatisme causé, même si elles n’apparaissent pas forcément plus efficientes que la chirurgie habituelle et l’utilisation d’un robot chirurgical (Kappor, 2014).
  • [19]
    Cette acceptation signifie que le robot doit être intégré volontairement à la vie d’une personne âgée en prenant en compte la motivation à utiliser un robot, une facilité d’utilisation suffisante et l’absence d’inconfort physique, cognitif et affectif en présence d’un robot ; en outre, ses effets sur le rôle des aidants naturels doivent être pris en compte, afin que cette acceptation soit mise en balance avec son coût, en y incluant son entretien.
  • [20]
    Par exemple passer l’aspirateur, ramasser les poubelles, nettoyer les vitres, arroser les plantes, nettoyer la piscine, repasser, préparer à boire et à manger. Les appareils comme les robots d’alarmes et de sécurité, les tondeuses à gazon robotiques, les robots de surveillance d’animaux domestiques, les berceaux robotiques et les assistants d’achat robotiques sont aussi classés dans la catégorie des robots de service, au même titre que les robots de divertissement et, dans une certaine mesure, les robots compagnons.
  • [21]
    Par exemple, les véhicules autonomes permettront de réduire le nombre d’accidents, les robots chirurgicaux accroîtront la précision des interventions médicales, les robots de service améliorerons la qualité de vie des personnes âgées et des personnes atteintes de maladies chroniques.
  • [22]
    Par exemple, lorsqu’un véhicule autonome provoque un accident entraînant des victimes humaines, à qui devra en incomber la responsabilité ? L’équipe de roboticiens qui a conçu le véhicule ? Le fabricant ? Le programmeur ? Le vendeur ? La personne qui a décidé d’acheter et d’utiliser le véhicule ? Le robot lui-même ?
  • [23]
    Par exemple, les téléphones portables permettent aux individus de rester en contact ou les appareils d’imagerie par résonance magnétique (IRM) permettent aux médecins d’obtenir une image du corps de leurs patients.
  • [24]
  • [25]
    Farzaneh et Boyer (2018) ont mis en avant la question de l’écologie comme un éventuel critère de choix entre les robots et les êtres humains sur le lieu de travail. De ce point de vue, les auteurs suggèrent de faire un choix entre les hommes et les robots, lorsque cela est possible, en se fondant sur le coût comparé en matière de consommation d’énergie et de matières premières entre les hommes et les robots.
  • [26]
  • [27]
    Cette loi a un impact important sur les professionnels des RH, car elle couvre les droits des employés sur les données personnelles qu’une entreprise conserve : les entreprises ne peuvent utiliser les données qu’aux fins qui ont motivé leur recueil et elles ne peuvent pas en collecter de nouvelles sans autorisation des employés.
  • [28]
  • [29]
  • [30]
    Par exemple, les distributeurs automatiques de billets sont programmés pour rendre exactement la monnaie aux clients.

Introduction

1Les robots sont apparus de manière généralisée dans le domaine industriel depuis la première moitié du XXe siècle et se développent rapidement aujourd’hui, au plan qualitatif comme quantitatif autour de l’utilisation de plus en plus approfondie des technologies d’intelligence artificielle (IA). Cette dernière procure aux robots des capacités de perception, d’utilisation d’un langage, d’interaction avec les hommes et l’environnement, de résolution de problèmes et d’apprentissage voire de créativité.

2Il en résulte que les robots dotés de plus ou moins d’IA peuvent prendre des décisions imprévisibles pour les hommes [1], car elles dépendent de l’expérience acquise par les robots et de conditions stochastiques intégrées par l’IA. La question se pose donc, au plan éthique, de la responsabilité des actions exécutées par des robots dotés de l’IA, les robots cognitifs.

3Ce faisant, nous inscrivons cet article dans le champ des sciences de gestion et des organisations, afin d’y introduire une nouvelle problématique engendrée par l’apparition de la robotique, non seulement au travail mais dans l’ensemble du champ des activités humaines. Avant de « découper » cette problématique en champs de recherche spécifiques, portant par exemple sur l’avenir du travail ou sur le management d’une organisation imprégnée par l’IA, il s’agit ici de prendre la mesure des promesses et des risques de la robotisation au regard de l’éthique dans son ensemble, et notamment autour de la question de la responsabilité de l’acteur, que celui-ci soit incarné par l’entreprise ou par l’individu. In fine, comment intégrer la responsabilité d’un robot dans le champ de l’éthique, et notamment dans celui de l’éthique de l’altérité ?

4Dans une perspective plus large encore, la robotisation peut apparaître comme l’instrument d’un transhumanisme, voire d’un anti humanisme, qui modifierait non seulement le travail mais l’ensemble des conditions de vie de l’humanité. Si cet article ne prétend pas aborder l’ensemble de ces problématiques, du moins souhaite t-il en considérer les prolongements possibles.

5Nous commencerons par observer en quoi l’introduction de robots cognitifs au sein de la société humaine a un impact sur les comportements humains, qu’elle induit des changements d’ordre social comme culturel, ce qui engendre des questions éthiques que nous examinons dans cet article, en nous appuyant tout d’abord sur la notion de robot (1.) qui nous permettra ensuite de décrire les effets de l’introduction des robots dans les rapports sociaux (2.), à partir desquels nous examinerons ce que peut signifier une éthique de la robotique (3.).

1 – La notion de robot

6Le terme même de robot est à la frontière de la technique et de l’imaginaire. Dérivé du terme robota, qui signifie « travail » en tchèque, il remplace celui « d’automate », en faisant son apparition en 1920 dans une œuvre de fiction [2]. Depuis cette date, les robots ne cessent de mobiliser l’imagination humaine avec un biais négatif engendré par la crainte qu’ils supplantent les êtres humains.

1.1 – La définition du terme de « robot »

7Nous avons défini un robot dans son acception anthropomorphique (Farzaneh & Boyer 2018) comme étant une machine qui fournit des services pour les êtres humains, soit en se substituant à eux, soit en collaborant avec eux. D’autres définitions ont été proposées par Rosenberg [3] (1986) ou par Angelo [4] (2007), mais l’évolution des robots doit être prise en compte pour saisir le sens en devenir du concept de robot. C’est ainsi que Gibilisco (2003) distingue quatre générations de robots, chacune acquérant par rapport à la précédente des capacités croissantes :

  • Avant 1980, les robots de la première génération étaient fondés sur des servomécanismes stationnaires et n’utilisaient ni capteurs externes, ni intelligence artificielle.
  • Entre 1980 et 1990, les robots de la deuxième génération étaient programmables, contrôlés par des microprocesseurs et disposaient de capteurs visuels et tactiles.
  • À partir des années 90, les robots de la troisième génération deviennent mobiles et autonomes, capables de reconnaître et de synthétiser la parole et intégrant l’intelligence artificielle et des systèmes de navigation.

8Gibilesco prévoit enfin que les futures générations de robots devraient être capables d’acquérir progressivement la plupart des caractéristiques du cerveau humain, sauf celles qui tiennent à sa nature purement biologique.

9Or, depuis ce classement, la robotique s’est diversifiée au-delà de l’ingénierie mécanique et électrique qui traite spécifiquement des robots ou « bots » pour s’adjoindre les nanosciences pour les « nanobots », la biologie pour les « biorobots » ou les « cyborgs ») et même la botanique avec les « plantoïdes », alors qu’il semblerait que l’éthique de la robotique soit restée cantonnée aux robots déjà en fonction et non aux robots du futur.

10Il en résulte que cette éthique risque d’être sans cesse en retard par rapport à l’apparition de nouveaux types de robots. En outre, la robotique ne relève pas seulement de la science mais aussi de l’imaginaire des hommes, d’où un risque de biais anthropomorphique vis à vis des robots « réels ».

1.2 – L’imaginaire des robots

11L’esprit humain est hanté par la tentation démiurgique de créer des êtres intelligents, c’est pourquoi de tels êtres sont représentés dans la mythologie, la littérature ou le cinéma. Nous citerons par exemple, pour nous limiter aux représentations récentes des robots :

  • Frankenstein de Mary Shelley (1818), qui décrit un être vivant artificiel qui se révolte contre son créateur au nom de son droit au bonheur.
  • La pièce de théâtre de Karel Capek, R.U.R. ou Les robots universels de Rossum publiée en 1920, qui a créé, comme nous l’avons indiqué supra, le terme de « robot ». Le thème de la pièce traduit bien les inquiétudes sociales que suscitent les robots. Ces derniers, constitués de matière organique sont destinés par l’inventeur à servir de force de travail bon marché, mais ils se révoltent contre leurs créateurs et s’emparent du pouvoir.
  • Isaac Asimov introduit le terme de « robotique » et propose dans une de ses nouvelles, Cercle vicieux, (1942) une éthique de la robotique fondée sur trois lois :
    • un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
    • un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
    • un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

12Asimov jugera ensuite que ces trois lois doivent être complétées par une loi Zéro qu’il propose dans Les robots et l’Empire (1985) :

  • Un robot ne peut porter atteinte à l’humanité, ni, en restant passif, permettre que l’humanité soit exposée au danger.

13Les œuvres précédentes traduisent, par la révolte (Frankestein), l’utilisation des robots contre le travail humain (R.U.R) ou la nécessité d’encadrer le comportement des robots (Cercle Vicieux), la crainte d’un homme dépassé par les créatures qu’il a conçues et fabriquées. Cette crainte s’est largement exprimée dans les films et séries de science-fiction, comme, pour ne citer que les œuvres les plus connues, dans Metropolis de Fritz Lang (1927) qui décrit la révolte des robots contre les êtres humains dans 2001, l’Odyssée de l’espace de Stanley Kubrick (1968) qui présente un ordinateur contrôlant toutes les fonctions d’un vaisseau spatial et qui cherche à détruire son équipage humain ou dans Terminator de James Cameron (1984) qui décrit un monde futur constitué en dictature gouvernée au moyen de l’intelligence artificielle et d’une armée de robots.

14Cette présentation des robots n’est cependant pas systématiquement catastrophique. Le duo de robots R2-D2 et C3PO dans La guerre des étoiles de George Lucas (1977) possède des qualités humaines ; de même, l’enfant robot David dans A.I. Intelligence artificielle de Steven Spielberg (2001) souffre d’avoir été abandonné par sa mère biologique.

15Ces approches du comportement imaginé des robots ont des fondements religieux. En effet, le christianisme et le judaïsme considèrent la création de tels êtres comme une interférence illégitime avec le rôle du Créateur, alors qu’a contrario le bouddhisme et le shintoïsme considèrent tous les êtres vivants et non vivants comme dotés d’une âme ou d’un esprit. Cette dernière approche se traduit dans la culture japonaise par une acceptation des robots humanoïdes (Bar-Cohen et Hanson, 2009).

16Il faut observer que ces représentations du comportement des robots ont largement précédé l’arrivée pratique des robots dans la société humaine, mais il faut retenir aussi que ces représentations influencent les préoccupations éthiques de l’humanité vis à vis des robots. Le premier robot industriel (Stone, 2005), Unimate, n’a été conçu qu’en 1954 [5] et le premier robot fondé sur l’IA a été développé entre 1966 et 1972 [6]. Nous pouvons dégager les caractéristiques des robots existants ou en projet, en regard de l’éthique, en ne faisant référence qu’à l’état actuel de la robotique et en essayant d’en prolonger les tendances pour imaginer l’état de la robotique dans quelques décennies tout au plus.

1.3 – Capacités des robots et questions éthiques

17Un certain nombre de caractéristiques des robots, telles que la mobilité, l’interactivité, la communication et l’autonomie soulèvent des questions éthiques.

  • La mobilité des robots : si la plupart des robots industriels ne sont pas mobiles, l’activité d’autres types de robots le nécessite. Ils peuvent alors générer des risques pour les êtres humains, d’autant plus qu’ils disposent d’un fort degré d’autonomie et de capacités avancées d’interaction avec leur environnement.
  • L’interactivité avec l’environnement distingue les robots des ordinateurs, par l’équipement des premiers en capteurs tels que des caméras ou lasers ou d’actionneurs comme des bras ou des préhenseurs. La question éthique est directement liée à cette capacité d’action des robots qui peuvent infliger des dommages aux êtres humains en cas de mauvais fonctionnement. En outre, au moyen de leurs capteurs, les robots peuvent recueillir des données qui peuvent nuire aux êtres humains, sous forme d’espionnage ou d’autres activités criminelles.
  • La communication avec les robots s’effectue désormais directement avec les hommes à l’aide de systèmes de reconnaissance de la parole et de synthèse vocale. La question se pose donc du niveau de compréhension par les robots des langues humaines. Ces dernières ont en effet des significations multiples avec des aspects contextuels complexes et des présupposés implicites (Wise, 2005) alors que les robots ont besoin d’instructions explicites [7].
  • L’autonomie est substantielle au robot qui détient « de façon essentielle un certain degré d’autonomie ou l’aptitude à « réfléchir » seul et à prendre ses propres décisions pour agir sur l’environnement » (Bekey, 2012, p.18). Contrairement aux premiers robots qui n’étaient capables que d’exécuter des tâches répétitives, les robots actuels peuvent exécuter des tâches compliquées sans dépendre de commandes ou d’un contrôle humain direct. La question se pose donc du niveau de performance que doit atteindre un robot autonome par rapport à celles d’un être humain exécutant une tâche identique. Se pose également la question de la coopération homme-machine, dans la mesure où il semblerait que les performances du couple homme-machine soient supérieures aussi bien aux hommes qu’aux machines travaillant seuls.

1.4 – L’extension de la notion de robot

18Si, dans l’esprit humain, la notion de robot se confond avec celle de machine, elle doit désormais s’étendre à la nanorobotique dont l’objet est de créer et développer des robots dont les composants ont une dimension réduite, de quelques nanomètres, que l’on appelle nanobots, nanoïdes, nanites ou nanomites.

19À cette dimension réduite, s’ajoute l’utilisation de matériaux qui peuvent être aussi bien organiques qui ont des capacités spécifiques [8] (Ummat et al., 2004) qu’inorganiques (Weir et al., 2005). Invisibles à l’œil humain, les nanorobots exigent un examen du niveau de sécurité et de sauvegarde de la vie privée requis pour protéger les êtres humains et les écosystèmes.

1.5 – L’IA et le changement de paradigme de la robotique

20Si la plupart des robots industriels n’ont pas besoin d’IA, puisque leur comportement est préprogrammé pour exécuter automatiquement un nombre limité de tâches spécifiques et répétitives dans un environnement fixe, en revanche les robots dotés d’IA sont capables de percevoir et de représenter formellement les changements de leur environnement et d’adapter leur fonctionnement en conséquence.

21Alan Turing (1950) a offert la première formulation théorique d’une possibilité de l’intelligence artificielle (IA) en proposant un test destiné à décider si de l’intelligence peut être attribuée à un robot lorsqu’un être humain, placé dans un contexte expérimental, s’avère incapable de distinguer si les réponses qu’il obtient proviennent du robot ou d’un être humain. Même si, à ce jour, ce test n’a jamais pu être validé par un robot (Franklin, 2014), il existe désormais des robots capables de résoudre des problèmes d’une manière semblable, sinon identique, à la pensée humaine. On pose alors par définition qu’un tel robot est doté d’une IA, ce qui modifie le paradigme que l’on applique désormais aux robots. En effet, les premiers robots dotés de l’IA étaient encore programmés sur la base d’un paradigme hiérarchique, alors que les plus récents [9] s’appuient sur un paradigme réactif. Or, appliquer un paradigme hiérarchique à un robot signifie qu’il est supposé commencer par capter les informations nécessaires avant de préparer son action. Il est donc nécessaire, au préalable, de définir dans quel cadre le robot est censé agir, ce qui implique de définir à l’avance quelles sont les informations pertinentes et non pertinentes pour son action, entrainant un recueil de données quasiment illimitées.

22Cette difficulté pratique a conduit à se référer à un paradigme réactif, inspiré de la psychologie cognitive. La planification de l’action est limitée, ce qui libère de la puissance de calcul, et les actions du robot sont reliées à des données sensorielles.

23Cependant, quel que soit le paradigme utilisé, les robots exécutent leurs tâches sur la base d’algorithmes qui contrôlent aussi bien le comportement prévisible des robots déterministes que les capacités d’apprentissage des robots cognitifs dotés d’IA.

24Simplement, le comportement d’un robot déterministe est préprogrammé, ce qui résout la traçabilité de ses actions lorsqu’il s’agit de résoudre un différent éthique ou juridique. En revanche, les robots cognitifs, reposant sur l’IA apprennent de leurs expériences pour recalibrer eux-mêmes leurs algorithmes. Il n’est donc plus possible de prévoir complètement les comportements, ce qui crée une ambigüité sur la responsabilité respective du concepteur et de l’utilisateur pour ne pas mentionner celle du robot IA lui-même.

25C’est pourquoi les questions éthiques liées à la robotique doivent intégrer les caractéristiques rapidement évolutives des robots dans le cadre des rapports sociaux–économiques qu’ils entretiennent avec la société humaine.

2 – Les effets éthiques de la robotisation dans les rapports sociaux-économiques

26En fonction de la rapidité de son développement et de l’importance de ses effets sur l’éthique du secteur concerné, nous avons choisi de traiter successivement des robots industriels qui constituent historiquement le premier champ de développement de la robotique, des robots militaires et policiers qui posent des questions fondamentales en matière d’éthique, des robots de transport, des robots du secteur de la santé, du secteur de l’éducation, des robots ménagers et des robots dans l’agriculture et l’environnement qui constituent les champs les plus avancés en matière de développement robotique.

2.1 – Les effets éthiques de la robotique industrielle

27La première implication des robots dans les rapports sociaux s’observe dans le remplacement progressif des travailleurs par des robots dans l’industrie. Depuis le milieu du XXe siècle, des robots industriels ont peu à peu remplacé les opérateurs humains pour les tâches répétitives dans le secteur manufacturier, tandis que les robots plus récents, dotés d’une IA, commencent à exécuter des tâches manuelles de type non répétitif. Le coût des robots diminuant et leurs capacités technologiques s’accroissant, ils remplacent progressivement le travail humain dans une large gamme de fonctions du secteur des services (Frey et Osborne, 2013). Cette évolution conduit à un accroissement de la productivité mais aussi, dans un premier temps, à une augmentation du chômage. On peut à ce titre, évoquer l’apparition d’une nouvelle période de l’histoire qui se caractériserait par « la fin du travail » (Rifkin, 1995), même si le recul manque pour évaluer l’ensemble des conséquences d’un fort accroissement de l’utilisation de robots sur l’activité humaine et notamment sur ses effets sociaux. Deux tendances semblent cependant se dégager quant aux effets de la robotique sur la répartition du pouvoir en général et sur les conditions de travail en particulier :

  • la robotique se caractérise par une convergence des technologies, des progrès rapides et une réduction progressive des coûts qui doivent s’intégrer dans nos sociétés tout en les modifiant. Tout d’abord, l’impact de la robotisation sur l’économie mondialisée est asymétrique. Des robots de moins en moins chers et de plus en plus efficients poussent progressivement hors du marché de l’emploi, sauf si l’on prend en compte le coût énergétique et en matières premières des robots (Farzaneh, Boyer 2018). Cet effet se manifeste à la fois sur le marché de travail national, mais aussi au travers de la concurrence mondialisée entre les pays à bas et à haut coût de salaire. Les travailleurs peu rémunérés pourront difficilement faire concurrence à la productivité des robots. À cet égard, on observe le rapatriement de la production d’usines fortement automatisées à proximité de leurs marchés, ce qui répond mieux aux coûts et risques, aussi bien financiers qu’écologiques d’une longue chaine logistique (Balding, 2016). Le risque est donc que le développement de la robotique ne creuse un fossé technologique, social et politique entre les sociétés et dans les sociétés, en modifiant les relations de pouvoir. Mais il est déjà perceptible qu’elle modifie les échanges sociaux (Peláez, 2014).
  • La thèse de la fin du travail, avec son cortège d’impacts sociaux intégrés dans le paradigme d’une post modernité succédant au fordisme (Durand, Boyer, 2000) peut se trouver renforcer par l’apparition de la robotique. Or les rapports entre la postmodernité et son rapport au travail, et d’une manière plus générale au sens et à l’éthique ont été abordés dans les travaux de Bruna, Peretti & Yanat (2016) [10], complétés par Bruna, Montargot & Peretti (2017) qui montrent en quoi la diversité au travail s’inscrit dans une perspective de développement durable, fondée sur une éthique de l’altérite et une poursuite de la Justice organisationnelle, tandis que se trouvent précisés les liens entre le concept de diversité, le « totem » de la norme et l’idéologie du contrôle qui affectent l’entreprise postmoderne dans Bruna, Ducray & Montargot (2017).
  • En effet, les progrès de la robotisation modifient en profondeur les conditions de travail et les emplois. Travailler côte à côte avec des robots exige de nouvelles compétences professionnelles et la mise en place de mesures de sécurité nouvelles et adéquates sur le lieu de travail. Trois catégories de robots sont présentes sur les lieux de travail où elles affectent la sécurité, les robots industriels, les robots de service et les professionnels et les robots collaborateurs :
    • La plupart des robots industriels ne sont pas conscients de leur environnement, ce qui les rend dangereux pour les travailleurs et il s’agit donc de maintenir une distance suffisante entre les travailleurs humains et les robots en activité en créant des espaces réservés.
    • Les robots de service sont utilisés principalement en dehors des sites industriels, dans des environnements non structurés et imprévisibles. Ils ne peuvent généralement pas être isolés des travailleurs, car ils partagent souvent le même lieu de travail et la complexité de l’environnement contraint à donner aux robots un certain degré d’autonomie et de mobilité, susceptibles de créer des situations dangereuses pour les travailleurs.
    • Les robots collaborateurs sont conçus pour l’interaction directe avec un être humain ; ils comprennent à la fois des robots industriels et des robots de service professionnels ou personnels, en combinant la dextérité, la flexibilité et la capacité à résoudre avec la force, l’endurance et la précision des robots mécaniques. Comme les robots collaborateurs travaillent côte à côte avec des travailleurs humains, la sécurité ne peut pas être obtenue par l’isolement du robot, ce qui nécessite d’autres méthodes.

2.2 – Les effets éthiques de la robotique policière et militaire

28Il s’agit d’examiner quelles sont les conséquences de l’utilisation de systèmes robotiques dans les conflits armés à l’égard de l’application des principes les plus importants du Droit International Humanitaire (DIH), à savoir les principes de distinction, de proportionnalité et de responsabilité.

29Nous traitons ci-après de la surveillance policière autonome, des drones, des armes autonomes et du détournement des robots :

  • La robotique est de plus en plus appliquée à la surveillance. Comme la vidéosurveillance et les satellites, les drones peuvent voir et entendre en permanence. Ils permettent par exemple de contrôler les frontières, les foules ou la circulation. Il en résulte des implications majeures pour le respect de la vie privée et la protection des données. Dans ce domaine, l’adaptation des technologies militaires peuvent conduire à une logique de gestion de la société reposant sur une économie de la peur, celle d’« un ennemi omniprésent » (Crandall and Armitage, 2005, p.20). En particulier, l’utilisation de robots équipés d’armes dites « non létales » dans la répression des formes de contestation publiques peut servir d’outil d’oppression, car les robots ne risquent pas de désobéir à un régime autoritaire comme pourraient être amenés à le faire des soldats ou des policiers.
  • Un drone est défini comme « un véhicule terrestre, marin ou aérien qui est contrôlé à distance ou de manière automatique » (Chamayou, 2015, p.11). Ils ouvrent de nouvelles possibilités sur le plan militaire tout en créant de nouveaux risques sur le plan moral [11]. Or distinguer un combattant d’un civil dans une situation de télé pilotage est par nature difficile et la complexité très fortement accrue des séries de données sur lesquelles reposent les décisions de tir augmente les risques d’erreur dans l’identification des cibles. En outre, évaluer la proportionnalité à distance est problématique, car le pilote de drones doit, individuellement ou avec son équipe d’analystes, décider d’appliquer une force létale en fonction de données contextuelles qui sont souvent insuffisantes [12]. En ce qui concerne la responsabilité, il s’agit de vérifier que les drones sont utilisés par des forces militaires régulières aux mêmes fins que celles qui misent en œuvre pour les avions classiques.
  • Plus généralement, les armes autonomes sont des armes qui, une fois activées, sélectionnent et attaquent des cibles sans intervention humaine supplémentaire. Elles posent les mêmes questions éthiques, au regard des principes de distinction, de proportionnalité, de responsabilité et de transparence, mais dans ce cas, l’absence d’intervention humaine suscite des inquiétudes quant à la capacité de logiciels à prendre des décisions qui devraient normalement être prises par un être humain, notamment parce que des décisions de vie et de mort peuvent difficilement être prises par des machines [13], alors que le pouvoir de tuer ou de déléguer le pouvoir de tuer [14] ne peut être attribué à une machine sans nier ce qui constitue le fond de l’être moral d’un individu et sa valeur intrinsèque, la dignité humaine. En outre, les armes robotiques ont des implications stratégiques, notamment en abaissant le seuil de déclenchement d’un conflit armé [15]et posent des problèmes en termes de sécurité, par exemple en termes de détournement ou de piratage.
  • Enfin, le marché des véhicules téléguidés de petite taille soulève des questions éthiques en matière de respect de la vie privée, du fait des risques d’utilisation criminelle de ces produits [16].

2.3 – Les effets éthiques de la robotisation des transports

30Le secteur des transports est l’un des domaines où la robotique est le plus utilisée et acceptée car l’industrie automobile est de plus en plus organisée autour de l’automation. Avec l’évolution des capteurs, une proportion toujours croissante des fonctions de conduite est déléguée à des robots, comme la régulation de la vitesse, la mise en stationnement ou le changement de voie. Un saut qualitatif est en cours de réalisation avec la technologie émergente des véhicules autonomes (VA), qui permettra non seulement d’assister le conducteur mais de le remplacer complètement en s’adossant à des algorithmes cognitifs.

31Les problèmes éthiques que pose la technologie des VA se situe dans l’opposition entre l’intérêt individuel et collectif. Si du premier point de vue, une fois les difficultés techniques surmontées, l’EA présente de nombreux avantages, notamment en matière de sécurité, il reste que la prise de décision des machines sur la base de principes moraux doit faire prévaloir soit l’intérêt individuel, soit le bien public. Par exemple, dans l’éventualité d’un accident impossible à éviter, la priorité doit-elle être donnée à la réduction maximum du nombre de victimes, même si cela implique de sacrifier les occupants du véhicule, ou à la protection à tout prix des passagers [17] ?

32Il s’agit enfin de déterminer si ces questions doivent faire l’objet d’une réglementation à l’échelon national ou international, si elles doivent être soumises à des normes ou à des codes de conduite des véhicules autonomes ou laissées au jeu des forces du marché.

2.4 – Les effets éthiques de l’utilisation des robots dans le domaine de la santé

33Nous examinerons successivement les questions éthiques engendrées par l’utilisation de robots médicaux, de robots infirmiers, de robots de soin pour les personnes âgées et de robots compagnons.

  • Des robots semi-autonomes sont utilisés en chirurgie et ils présentent de nombreux avantages [18], mais les chirurgiens expriment certaines réticences techniques à l’égard de la chirurgie robotique, comme la perte du sens du toucher. Mais, d’ores et déjà, la robotique chirurgicale pose une question d’ordre économique et finalement éthique, car la multiplication des robots en chirurgie a des incidences sur l’allocation des ressources dans les systèmes de santé publique, en raison de son coût actuellement plus élevé que celui d’une opération avec un chirurgien normal.
  • Des robots infirmiers sont utilisés dans certaines approches thérapeutiques auprès des enfants autistes et des enfants trisomiques. Cependant les rares études consacrées à l’utilisation de robots dans ce contexte n’indiquent pas que la dyade robot-enfant autiste soit supérieure, d’un point de vue fonctionnel, à la dyade parent-enfant autiste (Simut et al., 2016). De même, les exosquelettes utilisés pour aider les personnes handicapées à accroître leur mobilité s’inscrivent dans le développement de la robotique médicale, mais, comme les implants neurologiques ou les nanorobots, ils ouvrent la voie à une transformation du corps humain et la question se pose, sur le plan éthique, de savoir jusqu’où doit aller le développement de l’hybridation et à quelles fins.
  • Les robots de soins pour personnes âgées font partie des robots sociaux, qui sont des robots qui communiquent et interagissent avec des êtres humains. On se réfère aussi à la notion de robots compagnons pour souligner les dimensions fonctionnelles et affectives de cette catégorie de robots (Oost and Reed, 2010). Or, en raison du vieillissement rapide de la population et des difficultés de recrutement du personnel de soins, les robots apparaissent comme un moyen de remédier à l’écart entre le besoin et l’offre de services de soins. C’est ainsi qu’apparaissent sur le marché médical, des robots qui fournissent une aide physique (nettoyage, cuisine, hygiène personnelle), les robots compagnons (stimulation des activités cognitives) et des robots de surveillance de la santé et de la sécurité (risques de chute, défaillance cardiaque, troubles de la mobilité). Ces robots soulèvent la question des moyens utilisés et des fins recherchées. Par exemple, comment équilibrer le contrôle comportemental et l’autonomie des personnes âgées à l’aide de robots ? le but visé est-il d’améliorer la qualité de vie des personnes âgées ou de réduire le travail du personnel de soins ou encore, plus généralement de décharger la société du soin des personnes âgées (Wu et al., 2010) ? Selon l’objectif choisi pour ces robots infirmiers, les questions de leur coût, de leur efficacité en matière de soins ou de leur acceptabilité [19] par les personnes âgées deviennent plus ou moins primordiales. Enfin, les robots compagnons sont en voie de développement dans le domaine de la sexualité et posent la question de la réduction de la sexualité à l’individu et non au couple, remettant en question les relations interpersonnelles.

2.5 – Les effets éthiques de l’utilisation des robots éducatifs

34Avec le développement rapide des technologies de communication, des outils multimédias de plus en plus nombreux sont utilisés dans le domaine de l’éducation, y compris désormais des robots éducatifs.

35La robotique éducative permet l’exploration, la conception, la modélisation, la programmation, la construction et la mise à l’épreuve de concepts d’apprentissage, à partir d’activités d’apprentissage individuelles ou en collaboration. Du point de vue de la conception de l’éducation, l’utilisation de robots s’inscrit dans un modèle d’apprentissage constructiviste qui implique une participation active des élèves à la construction et à l’acquisition des connaissances. C’est une participation qui n’est pas forcément acquise, dans la mesure où d’une part, l’intérêt pour les robots peut se révéler éphémère pour les apprenants et d’autre part parce que l’introduction des robots dans le système dépend de valeurs culturelles, qui font que la culture japonaise ou coréenne semble s’y prêter mieux (Tzafestas, 2016) que la culture européenne, par exemple (EC, 2012).

36Du point de vue de l’éthique de l’individu, l’une des principales questions éthiques qui se pose dans ce contexte concerne le rôle assigné au robot et notamment dans quelle mesure il peut remplacer un enseignant. Une autre question importante concerne la relation entre les robots et les enfants qui sont, plus que les adultes, susceptibles d’attribuer des caractéristiques cognitives, comportementales et affectives aux robots (Beran et al., 2011).

2.6 – Les effets éthiques de l’utilisation des robots ménagers

37Les robots ménagers, appelés aussi robots de service ou robots domestiques ont pour but d’aider les êtres humains à exécuter certaines tâches considérées comme pénibles ou à leur servir de moyens de divertissement [20].

38Au plan éthique, le premier risque concerne les dommages dont ils peuvent être la cause, résultant d’une force ou d’une vitesse inappropriée, d’une incompréhension du mode d’emploi ou d’une erreur dans l’exécution de tâches spécifiques. Les conséquences peuvent être aggravées lorsque les utilisateurs sont des enfants ou des personnes âgées. En outre, ils se prêtent facilement à être détournés de leur usage officiel vers des fins non éthiques. Souvent équipés de caméras et de micros, il est facile de les transformer en outils pour s’introduire dans la vie privée et ils permettent de stocker quantité de données privées et confidentielles (photos de l’intérieur d’une maison et de ses habitants, données sur leurs habitudes, mot de passe de leur système d’alarme, emplacement de leurs objets précieux). Le danger s’accroît encore lorsque les robots ménagers sont connectés à l’internet ou à un autre réseau insuffisamment protégé et facile à pénétrer. Dans ce type de situations, le piratage du robot peut faciliter des activités criminelles comme le vol ou le chantage.

39L’apparence extérieure des jouets robotiques et des robots compagnons est aussi un aspect sensible d’un point de vue éthique (Pearson et Borenstein, 2014). Leur forme et leur apparence devraient refléter les préférences esthétiques collectives d’une culture, ne pas renforcer les stéréotypes de genre, être adaptées au niveau de développement des enfants et prêter une attention particulière au degré d’apparence humaine de ces jouets, l’impact positif ou négatif d’une telle apparence variant en général selon l’âge ou les traits de personnalité de leurs utilisateurs.

2.7 – Les effets éthiques de l’utilisation des robots dans l’agriculture et l’environnement

40Les robots sont présents dans l’agriculture, par exemple dans le secteur laitier où des vaches peuvent être traites par un robot, leur alimentation adaptée en fonction du niveau de production et de l’âge de l’animal pour maximiser leur productivité. Dans ce cas particulier, du point de vue éthique, il faut prendre en compte la transformation de la relation entre l’animal et l’homme, les vaches perdant toute familiarité avec les êtres humains. De ce même point de vue éthique, se pose la question du bien-être de l’animal dans un modèle de productivité fondé sur l’animal-machine (Driessen and Heutinck, 2015).

41Les drones sont également présents dans l’agriculture, pour laquelle ils fournissent des données pour une utilisation plus efficace d’intrants chimiques ou de l’arrosage, contribuant ainsi à une agriculture durable, ou permettant de sélectionner des plantes plus résistantes, augmentant ainsi la productivité agricole. Au total, ils s’insèrent dans un modèle d’agriculture intensive et de précision, qui induit une modification de la relation de l’être humain à la terre (Leopold, 1949), ce qui pose également une question éthique.

42À ce titre, il faut mettre en balance l’utilité des robots pour la protection de l’environnement, dans la recherche océanique, dans l’exploration spatiale ou dans le cas dramatique de la surveillance et de la restauration de l’environnement après un accident nucléaire ou chimique (Lin, 2012) et l’impact environnemental de l’ensemble du cycle de production des robots. Ce cycle inclut en effet l’extraction d’éléments terrestres rares et d’autres matières premières, l’énergie nécessaire pour produire et alimenter les machines et les déchets générés pendant la production des robots et au terme de leur cycle de vie.

43Il est probable que la robotique va renforcer les préoccupations que suscitent le volume croissant de déchets électroniques et l’amenuisement des ressources en éléments terrestres provoqué par l’industrie informatique (Farzaneh et Boyer, 2018 ; Alonso et al., 2012) et il ne semble pas qu’aient déjà été effectuées des études approfondies sur l’impact environnemental ou de l’empreinte écologique des robots, et par conséquent les questions éthiques engendrées par cet impact négatif.

44À l’issue de l’examen des effets de l’introduction des robots dans un nombre croissant de secteurs de la vie professionnelle et personnelle des êtres humains, nous avons pu observer l’étendue et la variété de ces effets sur l’organisation de la société humaine ; ces effets peuvent, à terme, entraîner des changements profonds de la perception par l’homme de la signification de son environnement. L’éthique porte un regard sur les jugements de l’homme ou de la société sur cette perception de l’environnement transformée par les robots. Ses fondements en étant renouvelés par l’irruption de la robotique dans l’organisation de la société humaine, nous cherchons ci-après à en poser le cadre.

3 – À la recherche d’une éthique de la robotique

45Comme le cadre éthique de la robotique (3.1.) est en construction, dans la mesure où il suit plus qu’il accompagne les changements rapides de ses développements, nous chercherons à contribuer à cette construction par une analyse de la problématique de la robotique (3.2.) qui nous conduit à la question, centrale du point de vue éthique, de l’attribution de la responsabilité des actions des robots (3.3.) pour aboutir à une réflexion sur le concept de capacité d’action des robots (3.4.)

3.1 – À la recherche d’un cadre éthique de la robotique

46Les propositions visant à définir un tel cadre restent rares, deux d’entre elles se dégagent néanmoins en se situant à deux niveaux d’analyse différents de l’éthique de la robotique, celles d’Ingram et al. (2010) et de Riek et Howard (2014). Les premiers concentrent leurs recommandations sur le comportement des roboticiens, tandis que les seconds définissent des obligations non seulement pour les roboticiens mais aussi pour toutes les personnes impliquées dans la conception, la fabrication et la commercialisation de robots.

47Pour Ingram et al. (2010) tout d’abord, un roboticien doit se préoccuper du bien-être de toutes les communautés humaines parmi lesquelles ils distinguent notamment les roboticiens, les clients, les utilisateurs et les employeurs. En outre, un roboticien doit, autant qu’il lui est possible, prévoir d’éventuelles utilisations non éthiques de ses créations et chercher à les limiter. Ils ajoutent dans leur projet de code d’éthique le respect du bien-être physique et des droits des individus ainsi que les règles à envisager pour prévenir les informations inexactes et les conflits d’intérêts. Il reste naturellement à traduire ces recommandations générales en règles précises et in fine en actes. C’est pourquoi les professions de la robotique se sont dotées de codes de conduite conséquents, comme le code d’éthique de l’IEEE (Institute of Electrical and Elecronics Engineers) ou le code d’éthique de l’ACM (Association for Computing Machinery), mais ces codes éthiques, spécifiquement conçus à l’intention des roboticiens, en sont encore à leurs débuts et il n’est pas encore possible d’observer les conséquences pratiques de leur application.

48Riek et Howard (2014) s’adressent à un public plus large que les roboticiens. Ils proposent un « code d’éthique des professionnels de l’interaction homme-robot », qui contient une « directive primordiale ». Cette dernière recommande que les activités de recherche, de développement et de commercialisation qui concernent l’interaction homme-robot, soient fondées sur le principe général du respect de la personne humaine ainsi que sur d’autres principes, tels que le respect des besoins affectifs humains, le droit au respect de la vie privée, l’existence de coupe-circuits et la nécessité de limiter les aspects humanoïdes de la morphologie des robots.

49Ces deux essais de définition d’un cadre éthique de la robotique n’ont pas conduit, malgré les initiatives que nous avons mentionnées, à des codes éthiques professionnels et à des directives éthiques sur les modalités de mise en œuvre de projets robotiques. Sans doute de telles directives devraient émerger des initiatives prises pour promouvoir une réglementation éthique de la robotique :

  • Concernant l’éthique de la recherche en robotique, Allistene (2016), issu d’un consortium d’instituts de recherche français comprenant le CNRS, le CEA, l’INRA, le CDEFI, entre autres, a formulé plusieurs propositions afin de renforcer la responsabilité éthique des chercheurs en robotique quant à l’interaction homme-robot.
  • Le Projet de Rapport contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique, publié en 2016 par la Commission des affaires juridiques du Parlement européen, propose un cadre éthique de la robotique et de l’industrie des robots. Ce rapport aborde la protection des données et de la vie privée, les dommages qui pourraient être causés par la nouvelle génération de robots et la responsabilité des fabricants de robots, le principe de précaution, le test des robots en milieu réel, le consentement éclairé dans la recherche en robotique impliquant des êtres humains, les dispositifs d’interruption (coupe-circuit) et l’impact de la robotique sur l’emploi et l’éducation. Il souligne également l’importance de la traçabilité et de la mise en place d’un système d’immatriculation des robots avancés. (JURI, 2016, p.13).
  • Le rapport de la World Commission on the Ethics of Scientific Knowledge and Technology (COMEST, 2017) fait la synthèse des différentes problématiques de l’éthique de la robotique et proposent une série de recommandations pour un code éthique.

50Cependant, de nombreuses contributions sont proposées aujourd’hui à propos de l’éthique et du droit de la robotique (Asaro, 2012 ; Calo, 2015 ; Holder et. al., 2016 ; Leenes et al., 2017 ; Matsuzaki et Lindemann, 2016), alors qu’au plan pratique la robotique reste en grande partie non réglementée. Actuellement, les dommages potentiels causés par les robots sont couverts par la législation civile sur la responsabilité des produits, alors que l’autonomie de plus en plus forte des robots brouille la ligne de démarcation entre les responsabilités des fabricants de robots et celles des utilisateurs (Asaro, 2012).

51En outre, les producteurs de robots mettent en garde contre le risque de freiner le développement des robots par des normes posées à priori qui augmenteraient leur niveau d’incertitude, tant il apparaît qu’une réglementation de la robotique doit rester en phase avec l’évolution rapide des technologies, tout en recherchant l’équilibre entre la protection des valeurs et des droits humains fondamentaux et la préservation de l’innovation (Leenes et al., 2017). Mais le débat sur la réglementation de la problématique ne peut être tranché sans que celui portant sur les fondements de l’éthique de la robotique ne le soit au préalable.

3.2 – Vers une problématique de l’éthique de la robotique

52Cette problématique trouve son fondement dans la révolution technologique induite par les robots, qui d’un point de vue éthique, brouillent les limites entre sujets humains et objets.

53Ce brouillage est manifeste lorsque les robots montrent une certaine capacité à prendre des décisions, à exprimer des sentiments, ce qui leur permet de prendre en charge un nombre croissant de tâches humaines. Ce faisant, ils modifient des notions éthiques telles que la capacité d’agir et la responsabilité, quand ils ne brouillent pas les valeurs qui s’expriment dans différents domaines de la vie. Ce brouillage induit aussi un débat au sein de la société qui oscille entre ce que nous pouvons qualifier de techno-optimisme, exprimé par l’utopie du transhumanisme, et un techno-pessimisme qui invoque la nécessité d’un bioconservatisme destiné à défendre l’humanité contre l’impact trop radical des technologies.

54Le techno-optimisme soutient que les progrès de la technologie ne peuvent pas être freinés et qu’il faut donc les utiliser au mieux [21]. Si l’on idéalise les effets du progrès technologique, on rejoint alors l’idéal transhumaniste qui veut mettre la technologie au service de l’amélioration des capacités humaines (Hottois et al., 2015). À l’opposé de cette approche, le techno-pessimisme craint que les innovations technologiques affectent les relations sociales et les capacités cognitives de l’humanité. C’est pourquoi il défend un bio conservatisme autour de la dignité humaine (Fukuyama, 2002) ou de la capacité à être l’auteur de sa propre vie (Habermas, 2003). S’il est logique que la robotique, en tant que phénomène technico-social émergent génère des enjeux éthiques nouveaux, il est également nécessaire, au delà des choix globaux engendrés par le techno optimisme ou pessimisme, d’approfondir les questions concrètes que posent les robots au plan pratique pour tracer les limites du débat éthique. Ainsi, la question première qui émerge, au plan éthique, est celle de l’établissement des actes d’un robot, afin de pouvoir les apprécier.

3.3 – La multi responsabilité vis à vis des robots

55La question posée est celle de savoir qui est exactement responsable sur le plan éthique et donc sur le plan juridique lorsqu’un robot provoque des dommages à des êtres humains, des biens ou à l’environnement [22]. Pour ce faire il faut disposer d’une traçabilité qui désigne la nécessité de pouvoir déterminer les causes des actions d’un robot (Riek and Howard, 2014, p.6). Or l’exigence de traçabilité n’est pas compatible avec le développement de robots dotés d’un degré élevé d’autonomie, de capacités de décision et d’aptitudes à l’apprentissage, car la robotique en poursuivant « deux tâches contradictoires : accroître l’autonomie des robots et, en même temps, assurer qu’ils sont sans risques » (Matsuzaki et Lindemann, 2016, p.502), remet en cause la notion de traçabilité.

56La responsabilité de l’acte d’un robot apparaît le plus souvent partagée entre le concepteur, l’ingénieur, le programmeur, le fabricant, l’investisseur, le vendeur et l’utilisateur du robot, car aucun de ces acteurs ne peut être désigné comme la source ultime de l’action.

57Si aucun des acteurs n’est entièrement responsable de l’acte d’un robot, se manifeste alors un effet potentiellement paralysant pour la robotique, d’où deux voies proposées pour résoudre la question de la responsabilité. La première serait de développer des techniques permettant d’anticiper dans la mesure du possible les impacts du développement robotique (Verbeek, 2013). La deuxième consisterait à réfléchir soigneusement à l’apparition inévitable d’effets imprévus, en considérant que l’introduction dans la société de technologies robotiques est une expérimentation sociale » (Van de Poel, 2013). Mais se pose désormais la question de la nature de l’action des robots

3.4 – La capacité d’agir des robots

58Les robots peuvent agir de façon autonome en entrant, par eux-mêmes, en interaction avec leur environnement. Or d’une part la capacité d’agir a toujours été considérée comme le propre de l’homme et l’autonomie des robots reste relative. En effet, elle est le produit du travail des concepteurs et des programmeurs qui aboutit à des processus d’apprentissage des systèmes robotiques cognitifs. De ces derniers provient l’action des robots qui est la conséquence directe de leurs propres interactions et de leurs processus de décision, mais qui n’est plus la conséquence directe des instructions fournies par leurs concepteurs. Cette question de relation directe ou indirecte entre la conception d’un robot et ses actions est le nœud de la détermination de la responsabilité des acteurs, entre le robot, ses utilisateurs et finalement ses concepteurs.

59Sous l’angle éthique, un agent est responsable de ses actes lorsqu’il agit d’une manière libre et intentionnelle, sans qu’il soit dirigé ou contraint. On peut donc en conclure que les robots ne sont pas dotés d’une liberté et d’une intentionnalité comparables à celles des êtres humains, mais les robots disposent d’un certain degré de liberté puisqu’ils peuvent prendre des décisions à partir d’une certaine forme d’intentionnalité liée aux algorithmes qui les régissent.

60Pour échapper à l’alternative consistant à décrire les robots soit comme des objets technologiques, soit comme des sujets quasi-humains, Rosenberger and Verbeek, (2015) proposent l’approche de la médiation technologique qui présente les robots comme des médiateurs [23] entre les êtres humains et leur environnement. Selon cette approche, lorsque l’on introduit un robot dans une pratique spécifique, comme l’enseignement, les soins infirmiers ou le nettoyage, ce dernier joue un rôle de médiation qui modifie la pratique d’action des êtres humains. Il ne s’agit plus alors de comparer les robots aux êtres humains mais de déterminer de quelle façon les robots modifient les pratiques humaines. Se pose finalement la question du statut des robots en tant qu’agents éthiques et ses implications dans le champ des sciences de gestion.

4 – Les sciences de gestion et le statut éthique des robots

61Nous avons successivement défini la notion de robot et sa double extension, organique et dotée de l’IA, ses effets sur les rapports sociaux économiques en les analysant au travers des secteurs ou l’action des robots nous a paru particulièrement significative, avant de rechercher les fondements d’une éthique de la robotique pour laquelle l’origine de la responsabilité des robots semble déterminante. Il s’agit donc de considérer tout d’abord l’influence de la robotisation sur l’éthique de l’entreprise (4.1.) avant de considérer la construction d’un statut éthique des robots (4.2.)

4.1 – La robotisation et l’éthique de l’organisation

62Alors que les robots se développent de manière de plus en plus autonome, la société est contrainte d’élaborer des règles pour les gérer, dans la mesure où ces technologies dotées d’immenses avantages potentiels, s’accompagnent d’un grand nombre de dangers qui peuvent être pris en compte par les principes de l’éthique de l’organisation.

63Il faut rappeler que, d’ores et déjà, de nombreux travaux en ligne d’assemblage dans le monde ont remplacé les travailleurs humains par des robots, ce qui améliore la sécurité des travailleurs, diminue le risque d’erreurs et d’accidents de travail et augmente la productivité. Aussi, de ce point de vue, les robots peuvent apparaître un choix éthique, mais il faut noter aussitôt que l’utilisation des robots menace de supprimer une partie des emplois, d’écarter les hommes du sens du travail et de laisser des personnes sans aucun contact humain [24].

64Il est donc légitime de se poser la question de l’utilisation optimale des robots et de l’IA dans l’entreprise. Lorsqu’il est possible de faire un choix entre les robots et les êtres humains, il est nécessaire, d’un point de vue éthique, d’examiner les avantages et les inconvénients de l’utilisation des robots, notamment de déterminer les coûts du choix robotique et de définir des frontières à l’utilisation de la robotique et corrélativement de l’IA [25].

65L’introduction des robots et de l’IA dans l’organisation a une influence sur les droits humains. Alors que l’IA peut permettre aux agences de recrutement d’aller chercher les meilleurs talents sur Internet en s’appuyant sur la vérification des profils des candidats à l’emploi sur les medias sociaux, tandis que les demandeurs d’emploi peuvent envoyer leur CV plus rapidement et à moindre coût à un grand nombre d’entreprises, [26]cette recherche d’information a un impact en matière de justice et d’équité ; elle provoque de nouvelles réglementations, telles que la loi canadienne sur la protection des renseignements personnels et les documents électroniques (Personal Information Protection and Electronic Documents Act ou PIPEDA) [27].

66En outre, il est tentant d’affecter l’IA à des activités de surveillance qui portent atteintes aux droits de l’homme à partir des photos prises à l’aide de satellite, de la reconnaissance faciale ou des publications sur les réseaux sociaux, ce qui commence à provoquer des réactions de protection, telle que la décision de la ville de San Francisco, qui, depuis le 14 mai 2019 [28], a adopté une ordonnance bannissant l’usage de technologies de reconnaissance faciale par la police et par les autres instances municipales. Avant que des abus ne soient commis, l’ordonnance est préventive, afin de s’assurer que les citoyens puissent contrôler la manière dont ils sont surveillés et contrôlés.

67À partir d’un ensemble de comportements collectifs, se met donc en place une culture qui permet de protéger le volume massif et toujours croissant des informations recueillies sur les personnes et les organisations (Dhillon, 1997, Lim et al., 2009). Les cultures d’entreprise en sont impactées, car les failles de sécurité dans les systèmes informatiques résultent d’erreurs de codage humain [29] et le comportement des employés a un impact sur la sécurité des informations dans les organisations (Andersson et al., 2014).

68Au travers différentes facettes de la robotique et des technologies de l’intelligence artificielle, la robotique et l’IA soulèvent donc de multiples questions éthiques que ce soit sur l’opportunité de leur utilisation ou sur le contrôle de l’information recueillie, qui nous conduisent à considérer la construction d’un statut éthique des robots.

4.2 – Le statut éthique des robots

69Si le dysfonctionnement des robots peut infliger des dommages aux personnes, il ne s’agit pas seulement de demander aux roboticiens de respecter des normes éthiques mais d’inscrire des normes éthiques dans la programmation des robots.

70C’est ainsi que pourrait émerger une nouvelle discipline que nous appellerons éthique de la robotique destinée à « doter les robots de principes éthiques ou d’une procédure de résolution des problèmes éthiques qu’ils peuvent rencontrer » (Anderson and Anderson 2011, p.1).

71Se pose dés lors de question de la possibilité de construire des agents moraux artificiels, ce qui a été amorcé par la proposition de distinguer des agents éthiques implicites et explicites (Moor, 2011). Selon cette conception, un robot est un agent éthique implicite dans la mesure où il est équipé d’un logiciel qui empêche ou restreint des comportements non éthiques [30]. Mais, pour que des robots puissent devenir des agents éthiques explicites, il faudrait les programmer pour qu’ils puissent agir conformément à des principes et justifier éthiquement leurs actes. Or, la création de tels robots n’est pas encore effective, même si les programmes informatiques actuels de jeu d’échecs ouvrent la voie à ce type de robot (Whitby, 2011).

72Pour que de tels robots soient programmés, il faut au préalable choisir un code éthique. Asimov (1950), dans une œuvre de fiction, a eu le mérite de proposer trois lois de la robotique qui ne sont pas applicables dans la pratique parce qu’elles sont trop générales, potentiellement contradictoires et qu’elles obèrent les principes philosophiques sur lesquels elles s’adossent implicitement. Nous sommes donc ramenés à ce niveau à un débat sur le choix d’une éthique des robots fondée sur une éthique humaine parmi plusieurs possibles.

73Il reste cependant à s’interroger, lorsque les robots seront dotés dans l’avenir d’une éthique explicite, sur les droits éthiques des robots.

74Finalement, peut-on concevoir que les robots aient droit, à l’avenir à une protection contre les dommages identiques à celle accordée aux êtres humains et à certains animaux ?

75Dans la mesure où les robots sont capables d’effectuer par eux-mêmes des tâches cognitives, ils possèdent une forme de rationalité limitée, sans libre arbitre, sans intentionnalité et sans conscience de soi. De plus, ils n’éprouvent pas de sentiments, même si des robots sociables peuvent être programmés pour développer des sentiments artificiels (Valverdu and Casacuberta, 2009).

76Or, l’apparition à l’avenir d’hybrides homme-machine ou animal-machine ou de cyborgs, des robots intégrés à un organisme biologique ou contenant au moins certaines composantes biologiques, pourrait remettre en cause cette distinction simple entre les hommes et les robots. C’est bien le déplacement de frontière entre l’homme et l’objet qui a été le point de départ de notre analyse, c’est ce déplacement de frontière qui engendre la nécessité de développer une éthique de la robotique, qui reste à définir et à faire évoluer au fur et à mesure où la frontière se déplace. C’est pourquoi nous avons cherché à montrer dans cet article les principales données à prendre en compte pour l’élaboration dynamique d’une éthique de la robotique, en particulier autour du concept de responsabilité, face aux défis présents de la postmodernité voire d’un futur transhumaniste.

Bibliographie

  • Alonso E., Sherman A. M., Wallington T. J., Everson M. P., Field F. R., Roth R., Kirchain R. E. (2012), Evaluating rare-earth element availability : a case with revolutionary demand from clean technologies, Environmental Science and Technology, vol. 46, p. 3406-3414.
  • Anderson M., Anderson S. L. (2011), General introduction, in : Anderson M. and Anderson S. L. eds. (2007), Machine Ethics. Cambridge, Cambridge University Press, p. 1-4.
  • Anderson, D., Reimers, K. and Barretto, C. (2014), Post-Secondary Education Network Security : Results of Addressing the End-User Challenge, INTED2014 (International Technology, Education, and Development Conference).
  • Angelo J. A. (2007), Robotics : A Reference Guide to the New Technology. Westport, Greenwood Press.
  • Asimov I. (1950), Robot. New York, Gnome Press.
  • Asimov I. (1985), Robots and Empire, New York, Doubleday.
  • Asaro P. M. (2012), A body to kick, but still no soul to damn : legal perspectives on robotics, in : Lin, P., Abney, K. and Bekey, G. A. eds. Robot Ethics : The Ethical and Social Implications of Robotics. London, MIT Press, p. 169-186.
  • Balding C. (2016), Will Robots Ravage the Developing World ?, Bloomberg View, 25 July. London, Bloomberg.
  • Bar-Cohen Y. and Hanson D. (2009), The Coming Robot Revolution : Expectations and Fears About Emerging Intelligent, Humanlike Machines. New York, Springer-Verlag.
  • Bekey G. A. (2012), Current trends in robotics : technology and ethics, in Lin, P., Abney K. and Bekey G. A. eds., Robot Ethics : The Ethical and Social Implications of Robotics. London, MIT Press, p. 17-34.
  • Beran T. N., Ramirez-Serrano, A., Kuzyk, R., Fior, M. and Nugent, S. 2011. Understanding how children understand robots : Perceived animism in child-robot interaction, International Journal Human-Computer Studies, vol. 69, n° 7-8, p. 539-550.
  • Beran T. N., Ramirez-Serrano A., Kuzyk, R., Fior M. and Nugent S. (2011), Understanding how children understand robots : Perceived animism in child-robot interaction, International Journal Human-Computer Studies, vol. 69, n° 7-8, p. 539-550.
  • Bonnefon J.-F., Shariff A. and Rahwan I. (2016), The social dilemma of autonomous vehicles, Science, vol. 352, n° 6293, p. 1573-1576.
  • Bruna M-G, Peretti J_M, Yanat Z. (2016), Les nouveaux défis de la diversité : totems et à dépasser et défis à relever, RIMHE 2016/1, n° 20, p 68-88.
  • Bruna M-G, Montargot N., Peretti J-M. (2017), Point de vue : les nouveaux chantiers du management de la diversité, Gestion 2000, vol. 34, p 433-462.
  • Bruna M-G, Ducray L_F., Montargot N. (2017), Décrypter les ambiguïtés de la société post-moderne pour repenser la morphologie de l’entreprise de demain. Une illustration réticulaire, Management & Sciences Sociales, n°23, p 64-85.
  • Calo R. (2015), Robotics and the lessons of cyberlaw, California Law Review, vol. 103, p. 513-563.
  • Carr N. (2014), The Glass Cage : Automation and Us. New York, W.W. Norton and Company.
  • Chamayou G. (2015), A Theory of the Drone. New York, The New Press.
  • Crandall J. and Armitage J. (2005), Envisioning the Homefront : Militarization, Tracking and Security Culture, Journal of Visual Culture, vol. 4, n° 1, p. 17-38.
  • Dhillon, G. (1997), Managing Information System Security. Houndmills, Basingstoke, Hampshire : Macmillan Press LTD.
  • Driessen C. P. G. and Heutinck L. F. M. (2015), Cows desiring to be milked ? Milking robots and the co-evolution of ethics and technology on Dutch dairy farms, Agriculture and Human Values, vol. 32, n° 1, p. 3-20.
  • Durand J-P, Boyer R. (2000), L’aprés-fordisme, Syros, Paris.
  • Farzaneh F., Boyer A. (2018), Vacillate between humans and robots in the workplace : the role of ecological factors, IRMBAM 2018, 5-7 juillet, Nice.
  • Franklin S. (2014), History, motivations, and core themes, in Frankish K. and Ramsey W. M. eds., The Cambridge Handbook of Artificial Intelligence, Cambridge University Press, p. 15-33.
  • Frey C. B. and Osborne M. (2013), The Future of Employment, Oxford, University of Oxford.
  • Fukuyama F. (2002), Our Posthuman Future : Consequences of the Biotechnology Revolution, New York, Farrar, Straus, and Giroux
  • Gibilisco S. (2003), Concise Encyclopedia of Robotics, New York, McGraw-Hill.
  • Holder C., Khurana V., Harrison F. and Jacobs L. (2016), Robotics and law : key legal and regulatory implications of the robotics age (part I of II), Computer Law & Security Review, vol. 32, n° 3, p. 383-402.
  • Habermas J. (2003), The Future of Human Nature. Cambridge, Polity Press.
  • Hottois G., Missa J-N., Perbal L. eds. (2015), Encyclopédie du trans/posthumanisme, Paris, Vrin.
  • Kappor A. (2014), L’invasion robotique au Canada, Canadian Urology Association Journal, vol. 8, p. 5-6.
  • Ingram B., Jones D., Lewis A., Richards M., Rich, C. and Schachterle L. (2010), A code of ethics for robotics engineers, Proceedings of the 5th ACM/IEEE International Conference on Human-Robot Interaction (HRI), p. 103-104.
  • JURI (2016), Draft Report with recommendations to the to the Commission on Civil Law Rules on Robotics, Committee of Legal Affairs of the European Parliament, Brussels, European Parliament.
  • Leenes R., Palmerini E., Koops B.-J., Bertolini A., Salvini P., Lucivero F. (2017), Regulatory challenges of robotics : some guidelines for addressing legal and ethical issues, Law, Innovation and Technology, vol. 9, n° 1, p. 1-44.
  • Leopold A. (1949), A Sand County Almanac and Sketches Here and There. New York, Ballantine Books.
  • Lin P. (2012), Introduction to robot ethics, in : Lin, P., Abney, K. and Bekey, G. A. eds. Robot Ethics : The Ethical and Social Implications of Robotics. London, MIT Press, p. 3-16.
  • Lim J-S., Chang S., Maynard S., Ahmad A., (2009), Exploring the Relationship between Organizational Culture and Information Security Culture, 7th Australian Information Security Management Conference, Perth, Western Australia.
  • Matsuzaki H. and Lindemann G. (2015), The autonomy-safety-paradox of service robotics in Europe and Japan : a comparative analysis, IA & Society, vol. 31, n° 4, p. 501-517.
  • Moor J. (2011), The nature, importance, and difficulty of machine ethics. In Anderson, M. and Anderson, S. L. eds. Machine Ethics. Cambridge, Cambridge University Press, p. 13-20.
  • Oost E. and Reed D. (2010), Towards a Sociological Understanding of Robots as Companions. In : Lamers, M. H., Verbeek, F. J. eds. Human-Robot Personal Relationships. Heidelberg, Berlin, Springer.
  • Pearson Y. and Borenstein J. (2014), Creating “companions” for children : the ethics of designing esthetic features for robots, IA & Society, vol. 29, p. 23-31.
  • Peláez L. (2014), The Robotics Divide. A New Frontier in the 21st Century ? London, Springer-Verlag.
  • Rifkin J. (1995) The End of Work, New York, Putnam.
  • Reimers, K., Andersson, D. (2017), Post-secondary education network security : the end user challenge and evolving threats, ICERI2017 Proceedings, p. 1787-1796.
  • Rosenberg J. M. (1986), Dictionary of Artificial Intelligence and Robotics. New York, John Wiley & Sons.
  • Rosenberger R. and Verbeek P. P. (2015), A Field Guide to Postphenomenology. In, Rosenberger, R., Verbeek, P. P. eds. Postphenomenological Investigations : Essays on Human-Technology Relations. London, Lexington Books, p. 9-41.
  • Shelley M. (1818), Frankenstein ou le Prométhée moderne, traduction d’Alain Morvan et Marc Porée, Gallimard.
  • Stone W. L.(2005), The history of robotics, in : Kurfess T. R. ed., Robotics and Automation Handbook. Boca Raton, CRC Press.
  • Simut R. E., Vanderfaeillie J., Peca A., Van de Perre G. and Vanderborght B. (2016), Children with Autism Spectrum Disorders Make a Fruit Salad with Probo, the Social Robot : An Interaction Study, Journal of Autism Development Disorder, vol. 46, p. 113-126.
  • Tzafestas S. G. (2016), Roboethics. A Navigating Overview, Switzerland, Springer.
  • Turing A.M. (1950), Computing Machinery and Intelligence. Mind 49 : p. 433-460.
  • Ummat A., Dubey A. and Mavroidis C. (2004), Bionanorobotics : a field inspired by nature, in : Bar-Cohen, Y. ed. CRC Handbook on Biomimetics : Mimicking and Inspiration of Biology. Boca Raton, CRC Press, p. 201-226.
  • Valverdu J. and Casacuberta D. (2009), Handbook of Research on Synthetics Emotions and Sociable Robots : New Applications in Affective Computing and Artificial Intelligence. Hershey, IGI Publishing.
  • Van de Poel I. (2016), An Ethical Framework for Evaluating Experimental Technology, Science and Engineering Ethics, vol. 22, n° 3, p. 667-686.
  • Verbeek P. P. (2013), Technology Design as Experimental Ethics. In : Van den Burg S. and Swierstra Tsj. eds. Ethics on the Laboratory Floor. Basingstoke, Palgrave Macmillan, p. 83-100.
  • Weir N. A., Sierra D. P., and Jones, J. F. (2005), A Review of Research in the Field of Nanorobotics.
  • SAND2005-6808, Unlimited Release.
  • Wise E. (2005), Robotics Demystified. New York, McGraw-Hill.
  • Whitby B. (2011), On computable morality : an examination of machines as moral advisors. In, Anderson, M. and Anderson, S. L. eds. Machine Ethics. Cambridge, Cambridge University Press, p. 138-150.
  • Wu Y.-H., Faucounau V., Boulay M., Maestrutti M. and Rigaud A. S. (2010), Robotic agents for supporting community-dwelling elderly people with memory complaints : Perceived needs and preferences, Health Informatics Journal, vol. 17, n° 1, p. 33-40.
  • Source Electronique


Mots-clés éditeurs : responsabilité, robot, intelligence artificielle (IA), robotique, éthique

Date de mise en ligne : 07/08/2019

https://doi.org/10.3917/qdm.192.0067

Notes

  • [1]
  • [2]
    Le terme de robot a été créé par le tchèque Karel Capek dans une pièce de science-fiction de 1920 appelée R.U.R. (Rossumovi Univerzální Roboti).
  • [3]
    « Machine équipée de capteurs ou d’instruments de détection de signaux d’entrée ou d’états environnementaux mais comprenant aussi des mécanismes de réaction ou d’orientation et pouvant effectuer des tâches de détection, de calcul ou autres, et des programmes enregistrés déterminant la consécution des actions. » (Rosenberg, 1986, p.161).
  • [4]
    « Machine intelligente pouvant exécuter des tâches mécaniques courantes, répétitives ou dangereuses, ou d’autres opérations directement sur commande d’un être humain ou de façon autonome, en utilisant un ordinateur à logiciel intégré (contenant des commandes et des instructions préalablement enregistrées) ou reposant sur un niveau avancé d’intelligence machinique (artificielle) (qui permet de baser les décisions et les actions sur les données recueillies par le robot sur son environnement actuel) » (Angelo, 2007, p.309).
  • [5]
    Par Joseph Engelberger et George Devol pour la chaîne de montage de General Motors à Trenton dans le New Jersey.
  • [6]
    Shakey, un robot à roues conçu par Charles Rosen et ses associés du Centre pour l’intelligence artificielle en Californie.
  • [7]
    C’est pourquoi les développeurs proposent des systèmes de reconnaissance vocale et de synthèse vocale de plus en plus perfectionnés. Par exemple, les robots humanoïdes Wakamaru (Mitsubishi) et Nao (Aldebaran Robotics) peuvent communiquer avec des êtres humains à la fois par le geste et la parole (Bekey, 2012).
  • [8]
    Dans le cas de nanorobots organiques, il s’agit de machines moléculaires naturelles constituées d’un assemblage de protéines dotées de fonctions biologiques préprogrammées pouvant être activées en réponse à des stimuli physicochimiques spécifiques in vitro ou dans un milieu artificiel. Les nanorobots organiques ont des capacités spécifiques, telles que leur durabilité, leur activation rapide, leur aptitude à extraire de l’énergie, leur intelligence collective, leur facilité à se reproduire et leur architecture d’interfaces depuis le niveau nano jusqu’au niveau macro (Weir et al., 2005), avec des applications surtout médicales.
  • [9]
    C’est ainsi que le robot Kismet, conçu un demi-siècle après le robot Shakey, a pour but d’obtenir une interaction sociale entre le robot et les êtres humains : il peut remuer les yeux, changer d’expression faciale en fonction de son humeur, communiquer par la parole avec des êtres humains et réagir aux émotions de son interlocuteur.
  • [10]
    L’article met en question deux tabous, le « totémisme » de la norme et celui de l’instantanéité, le premier qui invite à résoudre l’antinomie entre une recherche de prévisibilité et le besoin d’innovation et le second qui questionne le rapport au temps comme levier de transformation des mentalités, de refonte des systèmes et des pratiques des organisations, en vue de concevoir un management qui permette d’atteindre une performance socioéconomique durable.
  • [11]
    Les opérateurs de drones se trouvent à distance de la machine armée, isolant leurs actes, pratiquement proche d’un jeu, de toute considération morale.
  • [12]
    Il s’agit de mettre en balance l’avantage militaire attendu et le risque de pertes de vies civiles.
  • [13]
    Un rapport de la Royal Society (2017) relève que les machines sont incapables de faire preuve de « sens commun » lorsque la situation devient complexe.
  • [14]
    La Convention de La Haye requiert qu’un combattant soit « commandé par une personne » (Conférence internationale de la paix, 1899, Art. 1 de l’Annexe de la Convention). Le développement des armes autonomes se poursuivant, les systèmes de défense autonomes d’un État pourront entrer dans une relation interactive avec les armes autonomes de vitesse équivalente d’un autre État, pouvant conduire par inadvertance au déclenchement d’un conflit armé avant même que des êtres humains aient eu la possibilité de réagir.
  • [15]
    Déjà la capacité de cibler à une grande distance a ouvert la pratique des assassinats ciblés, qui sont devenus plus aisés grâce aux systèmes robotiques.
  • [16]
    Des drones équipés de logiciels de reconnaissance faciale, de technologie infrarouge et de micros, permettant d’enregistrer des conversations personnelles, constituent en effet une atteinte sans précédent au droit au respect de la vie privée.
  • [17]
    D’autres exemples de ce dilemme sont proposés par Bonnefon et al. (2016, p.1576) :
    Est-il acceptable qu’un véhicule autonome, pour éviter une moto, fasse un écart et entre dans un mur, la probabilité de survie en pareil cas étant plus grande pour le passager du véhicule que pour le conducteur de la moto ?
    La décision doit-elle être différente lorsque des enfants sont à bord du véhicule, puisqu’ils ont plus longtemps à vivre en tant que futurs adultes et moins de contrôle sur la décision qui les a conduits à être présents dans le véhicule ?
    Si un fabricant offre des versions différentes de son algorithme moral et qu’un acheteur en choisit une en connaissance de cause, l’acheteur doit-il être tenu pour responsable des conséquences néfastes des décisions de l’algorithme ?
  • [18]
    Il offre plus de confort pour le chirurgien, une réduction de la durée d’hospitalisation et une perte de sang moindre pour le patient, minimisant ainsi le traumatisme causé, même si elles n’apparaissent pas forcément plus efficientes que la chirurgie habituelle et l’utilisation d’un robot chirurgical (Kappor, 2014).
  • [19]
    Cette acceptation signifie que le robot doit être intégré volontairement à la vie d’une personne âgée en prenant en compte la motivation à utiliser un robot, une facilité d’utilisation suffisante et l’absence d’inconfort physique, cognitif et affectif en présence d’un robot ; en outre, ses effets sur le rôle des aidants naturels doivent être pris en compte, afin que cette acceptation soit mise en balance avec son coût, en y incluant son entretien.
  • [20]
    Par exemple passer l’aspirateur, ramasser les poubelles, nettoyer les vitres, arroser les plantes, nettoyer la piscine, repasser, préparer à boire et à manger. Les appareils comme les robots d’alarmes et de sécurité, les tondeuses à gazon robotiques, les robots de surveillance d’animaux domestiques, les berceaux robotiques et les assistants d’achat robotiques sont aussi classés dans la catégorie des robots de service, au même titre que les robots de divertissement et, dans une certaine mesure, les robots compagnons.
  • [21]
    Par exemple, les véhicules autonomes permettront de réduire le nombre d’accidents, les robots chirurgicaux accroîtront la précision des interventions médicales, les robots de service améliorerons la qualité de vie des personnes âgées et des personnes atteintes de maladies chroniques.
  • [22]
    Par exemple, lorsqu’un véhicule autonome provoque un accident entraînant des victimes humaines, à qui devra en incomber la responsabilité ? L’équipe de roboticiens qui a conçu le véhicule ? Le fabricant ? Le programmeur ? Le vendeur ? La personne qui a décidé d’acheter et d’utiliser le véhicule ? Le robot lui-même ?
  • [23]
    Par exemple, les téléphones portables permettent aux individus de rester en contact ou les appareils d’imagerie par résonance magnétique (IRM) permettent aux médecins d’obtenir une image du corps de leurs patients.
  • [24]
  • [25]
    Farzaneh et Boyer (2018) ont mis en avant la question de l’écologie comme un éventuel critère de choix entre les robots et les êtres humains sur le lieu de travail. De ce point de vue, les auteurs suggèrent de faire un choix entre les hommes et les robots, lorsque cela est possible, en se fondant sur le coût comparé en matière de consommation d’énergie et de matières premières entre les hommes et les robots.
  • [26]
  • [27]
    Cette loi a un impact important sur les professionnels des RH, car elle couvre les droits des employés sur les données personnelles qu’une entreprise conserve : les entreprises ne peuvent utiliser les données qu’aux fins qui ont motivé leur recueil et elles ne peuvent pas en collecter de nouvelles sans autorisation des employés.
  • [28]
  • [29]
  • [30]
    Par exemple, les distributeurs automatiques de billets sont programmés pour rendre exactement la monnaie aux clients.

Domaines

Sciences Humaines et Sociales

Sciences, techniques et médecine

Droit et Administration

bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Retrouvez Cairn.info sur

Avec le soutien de

18.97.9.174

Accès institutions

Rechercher

Toutes les institutions