Couverture de APD_591

Article de revue

Comment protéger l'homme face aux robots ?

Pages 131 à 163

Notes

  • [1]
    M. Nisard, dir., Pétrone, Apulée, Aulu-Gelle, Œuvres complètes, Paris, éd. Dubochet et compagnie « des auteurs latins », 1843, Livre X, chap. XII, p. 593.
  • [2]
    Ch. Piguet et H. Hügli, Du zéro à l’ordinateur. Une brève histoire du calcul, éd. Presses polytechniques et universitaires romandes, Lausanne, 2004, p. 31.
  • [3]
    V. D. Hunt, Understanding Robotics, San-Diego, Californie, éd. Academic Press, 1990, p. 11.
  • [4]
    J.-P. Laumond, La robotique : une récidive d’Héphaïstos, éd. Collège de France – Fayard, Les leçons inaugurales du collège de France, n° 224, 2012, p. 22.
  • [5]
    E. Dombre, M. de Mathelin et J. Troccaz, « Spécificités et état de l’art », in J. Troccaz, dir., Robotique médicale, éd. Hermès Science publications, 2012, série « Systèmes Automatisés, Traité Information, Commande et Communication », p. 29.
  • [6]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, LEH édition « Science, éthique et société », janvier 2017, nos 84 et 85, et surtout n°s 86 à 139.
  • [7]
    J.-Cl. Heudin, Les créatures artificielles. Des automates aux mondes virtuels, Paris, éd. Odile Jacob, série « Sciences », 2008, p. 115.
  • [8]
    B. Joy, « Why the future doesn’t need us », in F. Allhoff et al., dir., Nanoethics. The Ethical and Social Implications of Nanotechnology, éd. Wiley-Blackwell, 2007.
  • [9]
    Pour Stephen Hawking, « le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité. Une fois que les hommes auraient développé l’intelligence artificielle, celle-ci décollerait seule, et se redéfinirait de plus en plus vite. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés », Entretien avec R. Cellan-Jones, 2 décembre 2014, BBC [on line], http://www.bbc.com/news/technology-30299992.
  • [10]
    Décret n° 2008-1156 du 7 novembre 2008, relatif aux équipements de travail et aux équipements de protection individuelle, JORF n° 0262 du 9 novembre 2008, p. 17243, texte n° 10.
  • [11]
    Cass. crim., 20 mars 2007, n° 06-84.230, JurisData n° 2007-038579 ; JCP S, 2007, 1472.
  • [12]
    Cass. 2e civ., 4 avril 2013, n° 12-13.921, JurisData n° 2013-006109.
  • [13]
    CA Grenoble, 28 août 2012, n° 10/05308, LXB n° A4915KST.
  • [14]
    Cass. crim., 9 mai 1977, n° 76-92.599, Bull. crim. 1977, n° 164.
  • [15]
    G. Auzero et A. Charbonneau (actual.), « Travail. Santé et sécurité au travail », J.-Cl. Lois pénales spéciales, V° Travail, Fasc. 30, 2015, n° 59. – Cass. crim., 16 mars 1999, n° 97-86.048, JurisData n° 1999-001704.
  • [16]
    Directive 2007/47/CE du Parlement européen et du Conseil modifiant la directive 90/385/CEE du Conseil concernant le rapprochement des législations des États membres relatives aux dispositifs médicaux implantables actifs, la directive 93/42/CEE du Conseil relative aux dispositifs médicaux et la directive 98/8/CE concernant la mise sur le marché des produits biocides, JO n° L 247 du 21 septembre 2007, p. 21-55.
  • [17]
    J. Guiochet, G. Motet, B. Tondu et Cl. Baro, « Sécurité des systèmes de la robotique médicale », Techniques de l’ingénieur, coll. « Imagerie médicale, électronique et TIC pour la santé », réf. SE3781, 2007, p. 15.
  • [18]
    J. Lewiner, « Le dispositif médical innovant. Attractivité de la France et développement de la filière », Centre d’analyse stratégique [en ligne], Rapports et documents, octobre 2012, PDF, p. 49, http://archives.strategie.gouv.fr/cas/content/rapport-dispositif-medical-innovant.html.
  • [19]
    J.-A. Long, J.-L. Descotes, O. Skowron, J. Troccaz et al., « Utilisation de la robotique en chirurgie laparoscopique urologique : état de l’art », Prog Urol, 2006, 16, 1, p. 3 et s.
  • [20]
    J. Lewiner, préc., PDF, p. 49.
  • [21]
    Directive 2009/48/CE du Parlement européen et du Conseil du 18 juin 2009 relative à la sécurité des jouets, JOUE L 170 du 30 juin 2009, p. 1.
  • [22]
    « Guide de l’application de la Directive "Machines" 2006/42/CE », Commission Européenne Entreprises et industrie, 2e éd., juin 2010, § 90.
  • [23]
    Consid. 15, directive 2006/42/CE.
  • [24]
    Cass. crim., 6 juin 1990, pourvoi n° 89-86.002, Bull. crim. 1990, n° 230.
  • [25]
    L. Dauxerre, « Synthèse. Conditions de travail, hygiène et sécurité », J.-Cl. trav., Synthèse 110, 2017, n° 2.
  • [26]
    Cass. soc., 16 juin 2009, n° 08-41.519, JurisData n° 2009-048671.
  • [27]
    Cass., ass. plén., 24 juin 2005, n° 03-30.038, Bull. civ. 2005, AP n° 7 ; JurisData n° 2005-029149.
  • [28]
    Cass., ass. plén., 24 juin 2005, n° 03-30.038, préc. – Cass. Soc., 11 avril 2002, n° 00-16.535, Bull. civ. V, n° 127 ; JurisData n° 2002-014056.
  • [29]
    D. Everaert-Dumont, « Santé et sécurité au travail. Hygiène et sécurité. Principes généraux », J.-Cl. trav., Fasc. 20-10, 2017, n° 61.
  • [30]
    G. Auzero et A. Charbonneau (actual.), op. cit., n° 59.
  • [31]
    Mais la jurisprudence est parfois réticente à appliquer le texte, Cass. com., 4 avril 2006, n° 04-19.125, JurisData n° 2006-033159 ; Droit rural, 2006, comm. 177, obs. Th. Tauran, dans lequel la vente de la machine agricole achetée sans le certificat de conformité n’est pas annulée au motif qu’il n’existait « aucune interdiction par un quelconque organisme public d’utiliser la machine », de sorte que « la livraison de la machine sans certificat de conformité ne constituait pas un manquement suffisamment grave justifiant la résolution demandée ».
  • [32]
    S. Bourgeot et M. Blatman, « De l’obligation de sécurité de l’employeur au droit à la santé des salariés », Dr. soc. 2006, p. 653 et s.
  • [33]
    Cass. crim., 6 novembre 2007, n° 07-80.031, Bull. crim. 2007, n° 265.
  • [34]
    Cass. 1re civ., 1er octobre 2014, n° 13-16.715, JurisData n° 2014-022787.
  • [35]
    J. Dye, « Fred Taylor et consorts c/ Intuitive Surgical Inc., Superior Court of the State of Washington, Kitsap County, n° 09-2-03136-5 », Reuters, 28 mai 2013,http://newsdaily.cms.newscred.com/article/0b22a9d0957ebce2b4137eb376ad177f/intuitive-surgical-wins-case-over-robotic-surgery-system. – V. aussi, LexisNexis [on line], « Legal Newsroom, Litigation », http://www.lexisnexis.com/legalnewsroom/litigation/b/litigation-blog/archive/2013/05/24/defense-verdict-returned-in-1st-da-vinci-surgical-robot-injury-death-case.aspx.
  • [36]
    Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique, 2015/2103 (INL).
  • [37]
    Arrêté du 17 décembre 2015, relatif à la conception des aéronefs civils qui circulent sans personne à bord, aux conditions de leur emploi et aux capacités requises des personnes qui les utilisent, JORF n° 0298 du 24 décembre 2015, p. 23897, texte n° 22.
  • [38]
    Loi n° 2016-1428 du 24 octobre 2016 relative au renforcement de la sécurité de l’usage des drones civils, JORF n° 0249 du 25 octobre 2016, texte n° 1.
  • [39]
    « Guide aéromodélisme, modèles réduits et drones de loisir », Direction de la sécurité de l’Aviation civile, Direction navigabilité et opérations, éd. 1 Version 2, 10 janvier 2017, Ministère de l’Ecologie du Développement Durable et de l’Energie [en ligne], http://www.developpement-durable.gouv.fr/sites/default/files/Guide%20a%C3%A9romod%C3%A9lisme%2C%20mod%C3%A8les%20r%C3%A9duits%20et%20drones%20de%20loisir.pdf.
  • [40]
    Ord. n° 2016-131 du 10 février 2016 portant réforme du droit des contrats, JORF n° 0035 du 11 février 2016, texte n° 26.
  • [41]
    G. Viney et P. Jourdain, Les conditions de la responsabilité, éd. LGDJ, 3e éd. « Traité de droit civil », 2006, n° 773.
  • [42]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 678 et s.
  • [43]
    C. Caillé, « Responsabilité du fait des produits défectueux », Rép. Dalloz civ., 2013, n° 49.
  • [44]
    Ph. Le Tourneau, dir., Droit de la responsabilité et des contrats, éd. Dalloz, 9e éd., coll. « Action », 2012/2013, n° 8426. – J. Revel, « Produits défectueux », J.-Cl. civ., art. 1386-1 à 1386-18, Fasc. 20, 2011, n° 17. – C. Caillé, loc. cit., n° 68.
  • [45]
    J. Revel, loc. cit., n° 28.
  • [46]
    Cass. 1re civ., 5 avril 2005, n° 02-11.947, 02-12.065, Bull. civ. 2005, I, n° 173 ; JurisData n° 2005- 027915. – Cass. 1re civ., 4 février 2015, n° 13-19.781, ECLI : FR : CCASS : 2015 : C100125.
  • [47]
    G. Viney et P. Jourdain, op. cit., n° 774-1.
  • [48]
    Cass. 1re civ., 7 novembre 2006, n° 05-11.604, Bull. civ. I, n° 467 ; Contrats, conc., consom., 2007, n° 60, obs. G. Raymond.
  • [49]
    Cass. crim., 24 septembre 1997, n° 96-81.105, JurisData n° 1997-004478, pour un produit décapant dangereux ayant causé le décès de l’utilisateur.
  • [50]
    Cass. 1re civ., 7 novembre 2006, n° 05-11.604, préc.
  • [51]
    Ph. Le Tourneau, Responsabilité des vendeurs et fabricants, éd. Dalloz « Dalloz Référence », 4e éd., 2012-2013, n° 52.60.
  • [52]
    Cass. 2e civ., 3 novembre 1971, n° 70-11.609, Bull. civ. 1971, II, n° 297.
  • [53]
    Cass. 2e civ., 10 mars 1983, n° 81-13.327, Bull. civ. 1983, II, n° 76, pour une scie électrique en fonctionnement.
  • [54]
    Cass. 2e civ., 11 juin 2009, n° 08-14.287, JurisData n° 2009-048704. – Cass. 2e civ., 13 mars 2003, n° 01-12.356, Bull. civ. 2003, II, n° 65. – Cass. 2e civ., 29 mars 2001, n° 99-10.735, Bull. civ. 2001, n° 68, p. 45.
  • [55]
    Cass. 2e civ., 2 avril 1997, n° 95-16.531, Bull. civ. 1997, II, n° 109. – Cass. 3e civ., 27 janvier 1977, n° 75-13.156, Bull. civ. 1977, II, n° 50.
  • [56]
    Cass. 2e civ., 4 janvier 2006, n° 04-17.653, Resp. civ. et assur., 2006, n° 76. – Cass. 1re civ., 11 mai 1999, n° 97-16.957, JurisData n° 1999-001828 ; Contrats conc. consom. 1999, comm. 140, note L. Leveneur.
  • [57]
    Cass. ch. réun., 13 février 1930, Jand’heur c/ Les Galeries belfortaises, D. 1930, 1, p. 57, note G. Ripert.
  • [58]
    Cass. 2e civ., 15 février 1984, Bull. civ. II, n° 29, relatif à un canapé.
  • [59]
    Cass. 2e civ., 5 janvier 1956, Bouloux et veuve Lathus c/ Sté Oxygène Liquide et al., D. 1957, p. 261, note R. Rodière.
  • [60]
    CJCE, 25 avril 2002, aff. C-183/00, Mme Gonzalez Sanchez c/ Sté Medicina Asturiana, § 22, D. 2002, p. 2937, note J.-P. Pizzio ; RTD civ. 2002, p. 523, obs. P. Jourdain. – Aujourd’hui, la bouteille de gaz qui explose est susceptible de constituer un produit défectueux, Cass. 1re civ., 4 février 2015, n° 13-19.781, Gaz. pal. 2015, p. 8, note P. Oudot.
  • [61]
    Cass. ch. réun., 13 février 1930, préc.
  • [62]
    Cass. 2e civ., 16 décembre 2004, n° 03-15.938, Bull. civ. II 2004, n° 537, p. 458.
  • [63]
    Cass. 2e civ., 13 septembre 2012, n° 11-19.941, JurisData n° 2012-021121, Resp. civ. et assur., 2012, comm. 331. – Cass. 2e civ., 5 janvier 1994, n° 92-15.443, Bull. civ. II, n° 14. – Cass. 2e civ., 13 février 1991, n° 89-18.422, Bull. civ. II, n° 55.
  • [64]
    Cass. 2e civ., 1er février 1978, n° 76-14.616, Bull. civ. 1978, II, n° 30, p. 24.
  • [65]
    Cass. 2e civ., 13 mars 2003, préc. – Cass. 2e civ., 2 avril 1997, préc.
  • [66]
    S. Bertolaso, « Droit à réparation. Responsabilité du fait des choses. Gardien », J.-Cl. civ., art. 1382 à 1386, Fasc. 150-20, 2012, nos 29 et s.
  • [67]
    Cass. 2e civ., 14 juin 1995, n° 93-19.188, Bull. civ. 1995, II, n° 185.
  • [68]
    Cass. 1re civ., 9 juin 1993, nos 91-10.608 et 91-11.216, Bull. civ. I, n° 213 ; D. 1994, 80, note Dagorne-Labbe, selon lequel la responsabilité du dommage causé par le fait d’une chose est liée à l’usage et aux pouvoirs de surveillance et de contrôle qui caractérisent la garde.
  • [69]
    Ph. Le Tourneau, dir., Droit de la responsabilité et des contrats, op. cit., n° 7785.
  • [70]
    Cass. 2e civ., 5 mars 1953, D. 1953, p. 473, note R. Savatier. – V. aussi, Cass. 2e civ., 20 juin 2002, n° 00-17.081, Bull. civ. 2002, II, n° 143 ; JurisData n° 2002-014857, qui évoque les pouvoirs de commandement, de direction et d’usage.
  • [71]
    G. Marraud des Grottes, Interview de M. Delvaux, « Le rapport énumère la création d’une personnalité juridiques comme une possibilité parmi d’autres », Rev. Lamy dr. civ., mars 2017, n° 6290, p. 38.
  • [72]
    N. Nevejans, « Le robot qui voulait devenir un homme… ou le statut juridique de l’androïde », in F. Defferrard, dir., Le droit saisi par la science-fiction, éd. Mare & Martin « Libre Droit », 2016, p. 156 et s., nos 33 et s.
  • [73]
    P. Kemp, L’irremplaçable. Une éthique de la technologie, éd. Cerf, 1997, p. 44.
  • [74]
    G. Marraud des Grottes, Interview de M. Delvaux, op. cit., p. 38.
  • [75]
    Sur cette question, V. N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 854 et s., spéc., nos 861 et s.
  • [76]
    « The ethics, social, humanitarian and ecological aspects of Robotics », First International Symposium on Roboethics, 30th - 31st January, 2004, Villa Nobel, San Remo, Italie.
  • [77]
    G. Veruggio, dir., « EURON roboethics roadmap », EURON roboethics Atelier, Genoa 27 feb.- 3 march 2006, juillet 2006, PDF - 42 pages, Roboethics.org [on line], http://www.roboethics.org/atelier2006/docs/ROBOETHICS%20ROADMAP%20Rel2.1.1.pdf.
  • [78]
    Guidelines on Regulating Robotics, RoboLaw [on line], 22 septembre 2014, http://www.robolaw.eu/.
  • [79]
    « Éthique de la recherche en robotique », Rapport n° 1 de la CERNA (Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene), novembre 2014, p. 7. – Également téléchargeable sur http://cerna-ethics-allistene.org/digitalAssets/38/38704_Avis_robotique_livret.pdf.
  • [80]
    « La Corée du Sud élabore une "charte éthique des robots" », LeMonde.fr [en ligne], communiqué AFP du 7 mars 2007, http://www.lemonde.fr/international/article/2007/03/07/la-coree-du-sud-elabore-une-charte-ethique-des-robots_880397_3210.html.
  • [81]
    « Intelligent robots development and distribution promotion act », Ministry of Trade, Industry and Energy, Act n° 13744, Jan. 6, 2016.
  • [82]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 909 et s., spéc. n° 912.
  • [83]
    P. Lin, « The ethics of autonomous cars », The Atlantic [on line], October 8, 2013, > Technology,http://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360/.
  • [84]
    Sur la notion de soft law, V. not., C. Thibierge, « Le droit souple. Réflexion sur les textures du droit », RTD civ. 2003, p. 509 et s.
  • [85]
    D. Thouvenin, « Les lois n° 94-548 du 1er juillet 1994, n° 94-653 et n° 94-654 du 29 juillet 1994 ou comment construire un droit de la bioéthique », D. 1995, p. 149, n° 45.
  • [86]
    B. Feuillet-Le Mintier, Normes nationales et internationales en bioéthique, PUF « Que sais-je », 2e éd., 2004, p. 17.
  • [87]
    Loi n° 94-653 du 29 juillet 1994 relative au respect du corps humain, et loi n° 94-654 du 29 juillet 1994, relative au don et à l’utilisation des éléments et produits du corps humain, à l’assistance médicale à la procréation et au diagnostic prénatal, JORF n° 175 du 30 juillet 1994, p. 11060 et s.
  • [88]
    P. Martens, « La dignité humaine : bonne à tout faire des cours constitutionnelles », in H. Pauliat et S. Gaboriau, dir., Justice, éthique et dignité : Actes du colloque organisé à Limoges le 19 et 20 novembre 2004, éd. Pulim « Entretiens d’Aguesseau », 2006, p. 152.
  • [89]
    F. Benoît-Rohmer, « La Charte des droits fondamentaux de l’Union européenne », D. 2001, p. 1483.
  • [90]
    V., J.-R. Binet, « Protection de la personne. Le corps humain », J.-Cl. civ., art. 16 à 16-13, Fasc. 12, 2015, n° 8. – Adde, B. Mathieu, « Pour la reconnaissance de principes matriciels en matière de protection des droits fondamentaux », D. 1995, 211, qui considère que la dignité est un principe matriciel. – V. aussi, Cons. Const., déc. n° 94-343-344 DC du 27 juillet 1994, JO 30 juillet 1994, n° 11056.
  • [91]
    E. Dreyer, « Dignité de la personne », J.-Cl. communic., Fasc. 44, 2015, n° 61. – E. Dreyer, « La dignité des personnes âgées », in J.-R. Binet, dir., Droit et vieillissement de la personne, éd. Litec « Colloques et Débats », n° 21, 2008, p. 32, n° 3. – B. Mathieu, « La liberté de la recherche, droit fondamental constitutionnel et international », in M.-A. Hermitte, dir., La libertés de la recherche et ses limites. Approches juridiques, éd. Romillat « Droit et Technologies », 2001, p. 66. – B. Mathieu, « Chapitre 6. La dignité, principe fondateur du droit », in La dignité (1re partie), Un concept humaniste à l’ère du post-humain ?, Journal international de bioéthique, Vol. 21, 2010/3, p. 80, qui considère que la dignité est un droit essentiellement objectif.
  • [92]
    V., N. Nevejans, O. Pourtallier, S. Icart et J.-P. Merlet, « Les avancées en robotique d’assistance aux soins sous le prisme du droit et de l’éthique », Médecine et droit, à paraître.
  • [93]
    En ce sens, L. Favoreu et al., Droit des libertés fondamentales, éd. Dalloz, 6e éd., « Précis droit public – science politique », 2012, n° 215-1.
  • [94]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 1010 et s.
  • [95]
    Ibid., nos 1014 et s.
  • [96]
    Consid. 13, Cons. const., déc. n° 2008-562 DC du 21 février 2008, JO 26 février 2008, p. 3272, texte n° 2.
  • [97]
    J.-Ch. Saint-Pau, « Jouissance des droits civils. Droit au respect de la vie privée. Définition conceptuelle du droit subjectif », J.-Cl. civ., Art. 9, Fasc. 10, 2016, n° 48.
  • [98]
    Sur ce point, V., N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., n°s 1038 et 1039.
  • [99]
    Ibid., nos 1063 et s.
  • [100]
    Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, JOUE n° L 281 du 23 novembre 1995, p. 31-50.
  • [101]
    Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), JOUE L119, 4 mai 2016, p. 1.
  • [102]
    Loi n° 2004-801 du 6 août 2004 relative à la protection des personnes physiques à l'égard des traitements de données à caractère personnel et modifiant la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, JORF n°182 du 7 août 2004, p. 14063, texte n° 2.
  • [103]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 1266 et s.
  • [104]
    J. Carpenter, « Just Doesn’t Look Right : Exploring the impact of humanoid robot integration into Explosive Ordnance Disposal teams », in R. Luppicini, dir., Handbook of Research on Technoself : Identity in a Technological Society, Hershey, Information Science Publishing, p. 609-636.
  • [105]
    S. Tisseron, Le jour où mon robot m’aimera. Vers l’empathie artificielle, éd. Albin Michel, 2015, p. 39.
  • [106]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 1269 et s.
  • [107]
    Ibid., nos 1298 et s.
  • [108]
    § 4 de la Déclaration transhumaniste : « les transhumanistes prônent le droit moral de ceux qui le désirent, de se servir de la technologie pour accroître leurs capacités physiques, mentales ou reproductives et d’être davantage maîtres de leur propre vie. Nous souhaitons nous épanouir en transcendant nos limites biologiques actuelles. »
  • [109]
    Lire, par ex., R. Redeker et R. Moreau, « Transhumanisme : entre l’homme réparé, l’homme augmenté et l’homme enlisé dans la pauvreté, saurons-nous échapper à un remake de la concurrence mortelle entre Homo Sapiens et Néandertal ? », Atlantico [en ligne], 25 janvier 2016, http://www.atlantico.fr/decryptage/transhumanisme-entre-homme-repare-homme-augmente-et-homme-enlise-dans-pauvrete-saurons-echapper-remake-concurrence-mortelle-2553882.html?yahoo=1.

11. L’homme développe depuis l’Antiquité un attrait particulier pour la machine, puisque Archytas de Tarente aurait créé vers 450 avant Jésus-Christ une colombe mécanique en bois capable de voler selon le philosophe Favorinus [1]. Historiquement, on rencontra des proto-robots dès le milieu du xviiie siècle, lorsque Jacques Vaucanson inventa des automates très élaborés, dont les plus connus sont le canard qui digère et le musicien qui joue de sa flûte traversière. Il fut également à l’origine des proto-ordinateurs lorsqu’il mit au point un métier à tisser automatique entraîné par un moteur hydraulique, perfectionné au début du xxe siècle par Joseph-Marie Jacquard qui employa des cartes perforées. Ces dernières furent utilisées dans les premiers ordinateurs jusqu’en 1970 [2]. Néanmoins, la première machine qualifiée de robot naquit de la rencontre entre l’inventeur américain George C. Devol et Joseph F. Engelberger en 1956 avec le robot industriel Unimate[3], installé dans les années soixante sur les chaînes de montage de General Motors [4]. Puis ce fut la chirurgie assistée par le robot qui fit son apparition à partir des années quatre-vingt, en employant les outils de la robotique industrielle [5]. La fin du xxe et le début du xxie siècle virent émerger une variété de robots, comme le chien Aibo de Sony ou le robot humanoïde Nao de Aldebaran Robotics. Aujourd’hui, rien qu’en robotique civile, ils existent sous de multiples formes, comme les robots d’assistance aux personnes, les robots de sécurité, les prothèses bioniques, les exosquelettes, les robots domestiques, les robots agricoles, etc.

22. Tous les robots ont un certain nombre de caractères communs [6], ce qui les distingue d’autres sortes de machines, notamment des machines automatiques. Il s’agit d’une machine matérielle, ce qui permet d’exclure les « robots » agents logiciels. Ils sont dotés de la capacité d’agir sur le réel, de sorte qu’ils pourront exécuter des actions dans le monde réel à travers leurs actionneurs pour se déplacer, attraper un objet, etc., ou à travers des interfaces. Ils sont en mesure de percevoir leur environnement, ce qui implique qu’ils peuvent trouver des informations au moyen de leurs capteurs, comme détecter, par exemple, une présence humaine, même dans un environnement susceptible de varier, à l’image de la place d’une chaise dans une maison. Ils sont également capables de prendre des décisions, c’est-à-dire d’extraire des informations de leur environnement pour pouvoir décider de leurs actions. Les robots sont également dotés de capacités d’apprentissage, puisqu’ils sont programmés pour accomplir une tâche. Toutefois, certains caractères ne sont pas partagés par tous les robots, mais seulement certains d’entre eux. Il en va ainsi des facultés d’auto-apprentissage qui ne sont pas nécessairement répandues chez tous les robots. De la même manière, tous ne sont pas en mesure de communiquer et d’interagir. Enfin, l’autonomie, qui donne la possibilité aux robots de réagir à leur environnement sans intervention de l’homme, n’est pas une capacité commune à tous.

33. Au regard de cette définition, on constate que même si le robot est une machine très particulière, par essence elle n’est pas nécessairement plus dangereuse qu’une presse-plieuse ou un taille-crayon électrique. Cependant le robot n’est pas qu’une machine dotée de capacités spécifiques, c’est aussi le véhicule de l’imaginaire collectif. Or, la culture judéo-chrétienne pousse l’homme à craindre sa propre créature, à l’image du Golem que la tradition talmudique décrit comme susceptible d’échapper au contrôle de son créateur et de semer la destruction [7]. Cette peur de la créature dangereuse irrigue également toute la littérature depuis Frankenstein ou le Prométhée moderne de Mary Shelley (1818) jusqu’à la pièce de théâtre Rossum’s Universal Robots de Karel Čapek (1920), où la créature prend la forme d’un robot humanoïde dévolu au travail, mais suffisamment intelligent pour se rebeller contre l’homme. Même si Isaac Asimov rompt avec la tradition du Golem dangereux dans sa nouvelle Runaround (1942) en employant l’outil littéraire à connotation juridique des Lois de la robotique, le cinéma, dans la lignée du film Terminator de James Cameron (1984), a fini par réactiver cette peur du robot dangereux pour l’humanité. Finalement, la littérature et le cinéma ne font que souligner l’ambivalence de l’homme à l’égard de sa créature. Au début du xixe siècle, le luddisme était apparu comme la première réponse violente de l’homme à l’égard de la machine, puisqu’il avait engendré la destruction des métiers mécanisés en 1811. Au début du xxie siècle, le scientifique Bill Joy prévenait également que le futur n’avait pas besoin de l’homme, puisque les technologies NBIC (Nanotechnologies (N), Biotechnologies (B), technologies de l’Informatique (I) et sciences Cognitives (C)) allaient faire de lui une espèce en voie de disparition [8]. Avec un tel climat culturel, les alertes de Bill Gates, Stephen Hawking et Elon Musk, entre 2014 et 2015, selon lesquels il fallait craindre l’intelligence artificielle capable de se retourner contre l’homme [9], ne purent qu’avoir un écho retentissant renouvelant la peur de la créature.

44. Dans ce contexte, les progrès de la robotique, qui ne sauraient être isolés de ceux de l’intelligence artificielle, du big data et de l’ensemble des technologies émergentes, posent légitimement la question des dangers de la machine. Dès lors, comment protéger l’homme face aux robots ? Nous constaterons qu’il existe un certain nombre de dispositions qui sont déjà, dans une large mesure, capables de faire face aux dangers présentés par le robot en matière de sécurité humaine. Il s’agira ainsi de s’intéresser aux règles juridiques destinées à protéger l’homme contre le robot (I). Toutefois, assurer la sécurité de l’homme ne permet pas de répondre à l’ensemble des risques qui pourraient peser sur lui en raison de la présence d’un robot. En effet, l’apparition d’un questionnement éthique en robotique se justifie dans tous les secteurs où le robot sera amené à côtoyer l’homme, notamment dans ceux amenant les robots auprès des personnes âgées, handicapées, ou des enfants. Nous constaterons alors que le droit peine davantage à affronter ces problèmes, de sorte que l’éthique constituera un rempart de la protection de l’homme contre le robot. Mais sera-t-il suffisant ? Nous nous pencherons sur ces questions au travers de l’examen des règles éthiques destinées à protéger l’homme contre le robot (II).

I. – Les règles juridiques destinées à protéger l’homme contre le robot

55 . Face aux risques présentés par le robot, l’argument du vide juridique concernant la protection de l’homme ne saurait être validé. En effet, de nombreuses règles permettant de protéger la santé et la sécurité de l’homme sont applicables à la robotique. Elles ont pour effet d’éviter les dangers et de réparer les dommages lorsqu’un accident se produit. Ainsi, dans une approche préventive, elles participent à lutter contre les risques que les robots pourraient présenter (A), et dans une approche curative, elles exploitent les dispositions relevant de la responsabilité civile en cas de dommages causés par un robot (B).

A. – L’approche préventive : la lutte contre les risques présentés par le robot pour la sécurité ou la santé humaine

66. La lutte contre les risques présentés par le robot pour la sécurité ou la santé humaine s’organise très en amont. Certaines règles visent le fabricant du robot (1), tandis que d’autres s’adressent à son utilisateur (2).

1 – Les règles applicables au fabricant du robot

77. Il existe un corpus de règles juridiques qui s’appliquent dès la conception et la fabrication du robot. L’objectif de ces dispositions est d’instaurer une protection de l’homme ab initio en mettant sur le marché une machine sûre. Ces règles varient selon que le robot constitue un équipement de travail, un dispositif médical, ou qu’il est destiné aux consommateurs.

88. Les règles applicables à la conception et à la fabrication du robot en tant qu’équipement de travail. Les robots destinés à être utilisés en entreprise doivent suivre les règles de la directive Machines 2006/42/CE du 17 mai 2006, laquelle fixe des règles en matière de conception et de fabrication des machines et impose des exigences essentielles de santé et de sécurité. Elle a été transposée en droit français par le décret n° 2008-1156 du 7 novembre 2008, relatif aux équipements de travail et aux équipements de protection individuelle [10]. Le robot relève de la catégorie des « équipements de travail » (art. L. 4311-2, al. 1er, du Code du travail). Le législateur impose que pour toute opération juridique qui se réalise sur un équipement de travail, comme la vente, la location ou l’importation, la machine n’expose pas les personnes à un risque d’atteinte à leur santé ou leur sécurité (art. L. 4311-1, al. 1er, du Code du travail). La violation de ces dispositions pourra être sanctionnée pénalement. Il suffira que le non-respect de ces textes soit constaté par un procès-verbal, notamment, par un inspecteur ou un contrôleur du travail (art. L. 4311-6, al. 1er, du Code du travail). Ainsi, si le fabricant mettait sur le marché un robot non conforme, la violation de l’art. L. 4311-1 du Code du travail s’analyserait en une faute personnelle au sens de l’art. L. 4741-9 du Code du travail [11], punissable de 3 750 € d’amende pour chaque salarié concerné par l’infraction. En cas de récidive, la peine passerait à un an d’emprisonnement et à une amende de 9 000 €.

99 . En cas de dommage causé à l’homme par un robot considéré comme un équipement de travail, la mise en œuvre de la responsabilité civile du fabricant doit être combinée avec les règles relatives aux accidents du travail. En principe, en cas d’accident du travail, le salarié reçoit une indemnisation forfaitaire. Cependant, si l’accident du travail est imputable à un tiers, c’est-à-dire à une personne autre que l’employeur ou ses préposés, le salarié a le droit de se retourner contre le tiers pour demander l’indemnisation de tous ses préjudices, en vertu de l’art. L. 454-1 du Code de la sécurité sociale. Par conséquent, si le fabricant du robot devait mettre sur le marché une machine dangereuse qui aurait causé un dommage à un salarié de l’utilisateur, la victime pourrait agir en réparation directement contre lui sur le fondement du droit commun de la responsabilité civile, sans avoir l’obligation de subordonner son action à l’exercice préalable d’un recours contre son employeur [12]. La même solution serait d’ailleurs applicable à l’intégrateur en robotique [13].

1010. Selon la jurisprudence, le fabricant d’une machine dangereuse dépourvue d’un dispositif de protection peut engager sa responsabilité pénale en cas d’accident survenu à un ouvrier travaillant sur la machine, que l’employeur ait été ou non poursuivi [14]. Ainsi, la victime de l’accident du travail pourrait également agir au pénal contre le fabricant du robot du chef d’atteinte involontaire à la vie (art. 221-6 et s. du Code pénal) ou à l’intégrité de la personne (art. 222-19 et s. du Code pénal). Il en découle que si le robot n’était pas conforme aux règles de conception instituées par le Code du travail, le fabricant pourrait être poursuivi non seulement sur le fondement des dispositions pénales relatives aux atteintes involontaires à la vie ou à l’intégrité, mais également pour violation de la réglementation relative à l’hygiène et à la sécurité des salariés, puisqu’il en résulterait un concours idéal d’infractions [15].

1111. Les règles applicables à la fabrication du robot médical. La mise sur le marché des dispositifs médicaux a été réglementée par la directive 93/42/CEE relative aux dispositifs médicaux et la directive 90/385/CEE relative aux dispositifs médicaux implantables actifs et UE par la directive 2007/47/CE (directive Dispositifs médicaux) [16]. Elle est elle-même en cours de réforme depuis 2012. Les dispositions de ce texte ont été transposées en droit français dans le Code de la santé publique. Lorsqu’un robot peut s’analyser en un dispositif médical, sa mise sur le marché exige que le fabricant respecte la réglementation applicable. Il existe de nombreuses formes robotiques susceptibles d’être qualifiées de dispositif médical. Si l’on pense en priorité aux robots chirurgicaux, d’autres robots peuvent également entrer dans cette catégorie, comme certains robots d’assistance aux soins, les robots de réhabilitation, les prothèses bioniques, certains exosquelettes, voire les robots sociaux destinés à la stimulation cognitive et émotionnelle des patients. L’art. L. 5211-1, al. 1er, du Code de la santé publique définit le dispositif médical comme « tout instrument, appareil, équipement, matière, produit, à l’exception des produits d’origine humaine, ou autre article utilisé seul ou en association, y compris les accessoires et logiciels nécessaires au bon fonctionnement de celui-ci, destiné par le fabricant à être utilisé chez l’homme à des fins médicales […] ». L’art. L. 5211-1, al. 2, du Code de la santé publique concerne les dispositifs médicaux implantables actifs, comme les prothèses robotisées, définis comme « les dispositifs médicaux qui sont conçus pour être implantés en totalité ou en partie dans le corps humain ou placés dans un orifice naturel, et qui dépendent pour leur bon fonctionnement d’une source d’énergie électrique ou de toute source d’énergie autre que celle qui est générée directement par le corps humain ou la pesanteur […] ». Cependant, comme le robot médical constitue également une machine, il découle de l’art. 3, al. 2, de la directive 2007/47/CE, que toutes les exigences essentielles de santé et de sécurité de la directive Machines non incluses dans la directive Dispositifs médicaux sont alors applicables à ces dispositifs médicaux, tandis que toutes les obligations relatives à la mise sur le marché des dispositifs médicaux restent régies par la directive Dispositifs médicaux. L’art. R. 5211-17, al. 4, du Code de la santé publique reprend également cette exigence.

1212. Un robot doit nécessairement suivre le régime des dispositifs médicaux dès lors qu’il a une vocation médicale, c’est-à-dire qu’il est destiné à être utilisé à des fins, soit de diagnostic, de prévention, de contrôle, de traitement ou d’atténuation d’une maladie, soit de diagnostic, de contrôle, de traitement, d’atténuation ou de compensation d’une blessure ou d’un handicap, soit d’étude, de remplacement ou de modification de l’anatomie ou d’un processus phy-siologique, soit de maîtrise de la conception (art. R. 5211-1, al. 2, du Code de la santé publi-que). Par exemple, lorsque le robot humanoïde Nao de la société Aldebaran Robotics est destiné à être utilisé dans une école, il n’a pas à suivre le régime des dispositifs médicaux. Cependant, lorsqu’il est vendu, loué, ou prêté afin de travailler avec des enfants atteints de troubles autistiques, comme son rôle consiste à contrôler ou traiter une maladie, ou à contrôler ou traiter un handicap, au sens de l’art. R. 5211-1, al. 2, il doit alors obéir aux règles relatives aux dispositifs médicaux et recevoir le marquage CE. Avant sa mise sur le marché, le marquage CE d’un robot médical est important car, apposé au terme d’une procédure spécifique, il garantit la sécurité sanitaire des patients et peut librement circuler dans l’Union européenne. L’art. R. 5211-14, al. 1er, du Code de la santé publique pose deux conditions. D’une part, « le marquage CE ne peut être apposé sur un dispositif médical que si celui-ci est conforme aux exigences essentielles de sécurité et de santé ». Ces exigences essentielles figurent aux art. R. 5211-21 à R. 5211-24 du Code de la santé publique. Elles visent la sécurité du patient et de l’opérateur, la performance du produit, ou encore la conception et la construction des dispositifs. Elles supposent une évaluation fondée sur des données cliniques ou des investigations cliniques (art. L. 5211-3-2 du Code de la santé publique). D’autre part, l’art. R. 5211-14, al. 1er, indique que le dispositif médical doit avoir « fait l’objet des procédures de certification qui lui sont applicables ». Il s’agit, au regard de l’art. L. 5211-3, al. 1er, du Code de la santé publique, de pouvoir attester les performances et la conformité des dispositifs médicaux aux exigences essentielles. La certification de conformité doit être établie en fonction de la classe dont relève le dispositif, soit par le fabricant lui-même, soit par un organisme désigné à cet effet par l’Agence nationale de sécurité du médicament et des produits de santé (art. L. 5211_3, al. 2, du Code de la santé publique). L’art. R. 5211-7 du Code de la santé publique répartit les dispositifs médicaux en quatre classes selon leur dangerosité : classe I (faible degré de risque), classe IIa (moyen degré de risque), classe IIb (potentiel élevé de risque) et classe III (critique en matière de risque). Toutefois, l’indication d’une classe ne s’impose que pour les dispositifs médicaux et non pour les dispositifs médicaux implantables actifs, comme les prothèses bioniques. On constate que, dès lors que le robot médical relève de la classe I, le fabricant peut apposer directement le marquage CE. Il doit seulement le déclarer à l’autorité nationale compétente. Pour les autres classes, le fabricant choisit librement un organisme notifié et suit la procédure de certification. Comme de nombreux robots médicaux relèvent de la catégorie IIa ou IIb[17], la procédure consiste souvent en un audit du fabricant par l’organisme notifié et en un examen du dossier de conception [18]. Cependant, lorsque le robot appartient à la classe III, comme le robot chirurgical Da Vinci d’Intuitive Surgical Inc [19], le fabricant doit encore faire procéder à des essais cliniques destinés à démontrer que le dispositif médical respecte les exigences essentielles de la directive Dispositifs médicaux [20]. Dans tous les cas, le logiciel informatique qui commande ou agit sur un dispositif médical entre dans la même classe que celui-ci (art. R. 5211-8, al. 2, du Code de la santé publique). Ainsi, en robotique médicale, le robot et son logiciel forment un tout.

1313. Les règles applicables à la fabrication d’un robot destiné aux consommateurs. Celles-ci varient en fonction de l’utilisation de la machine. Ainsi, par exemple, un robot jouet doit remplir les conditions exigées par la directive Jouets 2009/48/CE concernant la sécurité des jouets [21]. Alors que le robot jouet est une machine, la directive Machines n’est pas applicable en la matière car « la directive Jouets est une directive complète en matière de santé et de sécurité qui traite, d’une manière plus spécifique que la directive Machines, des dangers liés aux machines destinées à être utilisées en tant que jouets » [22].

1414. Toutefois, les choses ne sont pas toujours aussi claires s’agissant des robots destinés aux non-professionnels. La directive Machines 2006/42/CE du 17 mai 2006 illustre bien la difficulté en la matière. En effet, elle a été transposée en droit français par le décret n° 2008- 1156 du 7 novembre 2008 relatif aux équipements de travail et aux équipements de protection individuelle, de sorte que les dispositions de ce texte ne visent que les salariés. Pourtant, la directive Machines a une vocation générale car elle cherche à protéger aussi bien les salariés que les consommateurs. À cet égard, il découle de la directive que lorsque le robot est destiné à un professionnel, c’est-à-dire à un salarié, il doit être conçu afin d’assurer un niveau de risque minimal pour lui, tandis que si l’utilisateur n’est pas un professionnel, le fabricant doit en tenir compte lors de la conception et de la fabrication [23]. En raison de la transposition trop restrictive de la directive, il existe un certain flou juridique sur les robots destinés aux consommateurs, comme les robots de services aux personnes, qui ne sont pas des dispositifs médicaux. Or, cette situation est problématique s’agissant d’un secteur très prometteur et en plein développement.

2 – Les règles relatives aux utilisateurs du robot

1515. Les règles relatives aux utilisateurs des robots sont fonction du secteur d’application. Il convient de distinguer l’utilisation du robot en tant qu’équipement de travail, celle du robot médical, et celle du robot destiné aux consommateurs.

1616 . L’utilisation du robot en tant qu’équipement de travail. L’employeur qui fait installer un robot dans son entreprise doit s’assurer qu’il est bien en adéquation avec ses besoins et ses méthodes de travail (art. R. 4321-1 et R. 4321-2 du Code du travail). De même, les robots doivent être installés, disposés et utilisés de manière à réduire les risques pour les salariés utilisateurs ou non, et à accomplir les opérations de production et de maintenance dans les meilleures conditions de sécurité possibles (art. R. 4323-7 du Code du travail). Ces dispositions concernent non seulement les robots industriels classiques, mais également les nouvelles formes qui se développent de manière croissante dans les entreprises, comme les robots collaboratifs ou les AGV (Automatic Guided Vehicles, véhicules à guidage automatique). L’employeur doit veiller à ne mettre à la disposition de ses salariés qu’un robot sûr, c’est-à-dire qui présente des garanties de sécurité du fabricant, en vertu de l’art. L. 4321-2 du Code du travail. La jurisprudence a pu estimer que si l’employeur achetait une machine dangereuse autocertifiée par le fabricant ou l’importateur, il ne serait pas dispensé en tant qu’utilisateur de s’assurer de sa conformité aux prescriptions réglementaires [24]. Il repose sur l’employeur une obligation de sécurité de résultat d’origine légale (art. L. 4121-1 du Code du travail) [25], dont il doit assurer l’effectivité [26]. Aussi, en cas d’accident du travail avec un robot non conforme, la victime serait dispensée de rapporter la preuve de la faute commise par l’employeur, car en n’obtenant pas le résultat escompté – la sécurité de son salarié –, il engagerait sa responsabilité. Plus encore, le manquement de l’employeur, qui avait ou aurait dû avoir conscience du danger auquel était exposé le salarié sans avoir pris les mesures nécessaires pour l’en préserver, serait analysé en une faute inexcusable au sens de l’art. L. 452-1 du Code de la sécurité sociale [27], de sorte que la victime ou ses ayants droit pourraient obtenir une indemnisation complémentaire [28]. Cependant, l’art. L. 4121-1 du Code du travail ne permet pas de sanctionner pénalement directement l’employeur [29]. Il peut toutefois engager sa responsabilité pénale par un autre biais. En effet, la violation des règles de sécurité par l’employeur ou son délégataire, ayant mis en service ou utilisé un robot non conforme qui aurait provoqué un accident du travail, s’analyse en une faute personnelle au sens de l’art. L. 4741-1 du Code du travail punissable d’une amende de 10 000 €, applicable autant de fois qu’il y a de salariés concernés de l’entreprise. L’accident du travail peut générer un concours d’infractions entre le délit d’atteinte involontaire à la vie ou à l’intégrité physique et celui de manquement aux règles de sécurité du travail de l’art. L. 4741-1 [30]. Dans tous les cas, l’entreprise utilisatrice du robot n’est pas démunie en cas d’achat ou de location d’un robot non conforme, puisque l’art. L. 4311-5 du Code du travail l’autorise, nonobstant toute clause contraire, à demander la résolu-tion de la vente ou du bail dans le délai d’une année à compter du jour de la livraison, ainsi que, éventuellement, des dommages et intérêts [31].

1717. En tant que garant de la sécurité au travail du salarié protégé par un « droit fondamental » à la sécurité et à la santé [32], l’employeur est contraint de prévenir les risques liés aux robots de son entreprise en adoptant les mesures adéquates (art. L. 4121-1 du Code du travail). Ces mesures devront reposer sur les règles générales issues de l’art. L. 4121-2 du Code du travail, et appliquer les principes généraux de prévention consistant à éviter les risques, évaluer ceux qui ne peuvent pas être évités, les combattre à la source, adapter le travail à l’homme, remplacer ce qui est dangereux par ce qui n’est pas dangereux ou moins dangereux, planifier la prévention, ou encore donner des instructions appropriées aux travailleurs. Afin de prévenir les risques, l’employeur doit procéder à l’évaluation des risques liés au robot exigée à l’art. L. 4121-3, al. 1er, du Code du travail. Il s’agit alors d’adopter des mesures concrètes en fonction de la situation de travail réelle dans son entreprise. Cette évaluation des risques est importante quel que soit le type de robot utilisé, même s’il s’agit d’un robot collaboratif ou d’un AGV. Elle doit tenir compte non seulement des opérateurs des robots, mais également des salariés qui travaillent à proximité. Elle doit également s’intéresser au fonctionnement du robot en situation réelle, de sorte qu’elle impose de vérifier l’existence d’éventuelles interactions entre plusieurs robots, analyser les lieux de passage pour le robot mobile, etc. À la suite de cette évaluation des risques, l’employeur est contraint d’adopter des mesures concrètes de prévention (art. L. 4121-3, al. 2, du Code du travail), consistant, par exemple, à mettre en place des barrières de sécurité, des zones d’activité du robot, des distances de sécurité entre l’homme et le robot, ou des signalisations adéquates (marquage au sol, cônes de sécurité, etc.). Au titre de ses obligations, l’employeur doit encore informer les salariés sur les risques spécifiques qu’ils pourraient rencontrer avec les robots en termes d’utilisation ou de maintenance, et au besoin les former à la sécurité de leur utilisation ou de leur maintenance (art. R. 4323-1 du Code du travail). Cette information concerne également les salariés qui travaillent dans l’environnement immédiat du robot sans pour autant l’utiliser (art. R. 4323-2 du Code du travail). En cas d’accident du salarié qui n’aurait pas reçu une formation suffisante pour l’emploi du robot, l’employeur pourrait être poursuivi du chef d’atteinte involontaire à la vie (art. 221-6 et s. du Code pénal) ou à l’intégrité de la personne (art. 222-19 et s. du Code pénal) [33].

18 18. L’utilisation du robot médical. Le professionnel qui utilise le robot médical est un médecin ou un professionnel de santé. Celui-ci doit, tout d’abord, prendre soin de vérifier que le dispositif médical a fait l’objet de la procédure de certification obligatoire en vue de sa commercialisation, faute de quoi il pourrait engager sa responsabilité, sauf s’il avait pu légitimement croire que son équipement pouvait être utilisable dans le cadre de sa profession [34]. Ensuite, il doit tenir compte du fonctionnement du robot au regard des nécessités médicales. Ainsi, la mise en œuvre d’un robot chirurgical impose que des précautions soient prises concernant l’aménagement de l’espace de travail de l’équipe soignante ou encore l’asepsie de la machine. De même, le chirurgien devrait nécessairement être formé à l’utilisation du robot médical. Le maniement d’un robot chirurgical n’a rien de commun avec celui des instruments médicaux classiques. En effet, faute d’un retour haptique, le praticien peut avoir des difficultés à évaluer la pression exercée par l’instrument sur les tissus du patient. De plus, le chirurgien doit s’habituer à travailler avec une vision en deux plans qui lui interdit de voir les reliefs. En outre, les opérations chirurgicales assistées d’un robot doivent être en adéquation avec la santé du patient, puisqu’elles durent plus longtemps et exigent une anesthésie plus longue. Dans une affaire américaine de 2008, un chirurgien a vu sa responsabilité engagée concernant un patient décédé des suites de l’opération de sa prostate par un robot chirurgical, en raison du non-respect des consignes et de la formation délivrées par le fabricant du robot [35]. Aujourd’hui, il n’existe aucune règle définie sur la question. La Résolution du Parlement européen du 16 février 2017 relative aux règles de droit civil sur la robotique estime d’ailleurs au paragraphe 33 qu’il convient de « fournir au personnel des soins de santé, dont les médecins et les aides-soignants, un enseignement, une formation et une préparation appropriés afin de s’assurer du plus haut niveau de compétence professionnelle possible et de protéger la santé des patients » [36].

1919. L’utilisation du robot destiné aux consommateurs. L’exemple des drones. En dehors du respect classique de la notice et des consignes de sécurité, il existe peu de règles concernant l’utilisation d’un robot par le consommateur. Toutefois, il convient de mettre à part le cas des drones, c’est-à-dire des aéronefs civils qui circulent sans personne à bord. En effet, dès lors que l’utilisateur d’un drone – qualifié de télépilote – le fait voler en extérieur, il est soumis à une réglementation spécifique. Ainsi, lorsque le drone est utilisé à des fins de loisir ou de compétition, l’arrêté du 17 décembre 2015, concernant la conception des aéronefs civils qui circulent sans personne à bord, qualifie le drone d’« aéromodèle » (art. 3) [37]. Face aux risques présentés par l’usage des drones, le législateur a adopté la loi n° 2016-1428 du 24 octobre 2016 relative au renforcement de la sécurité de l’usage des drones civils [38]. Désormais, l’art. L. 6111-1, II, al. 1er, du Code des transports prévoit que les drones de moins de 25 kilogrammes n’ont pas à se faire immatriculer. De plus, aujourd’hui, les drones, dont la masse est « supérieure ou égale à un seuil fixé par voie réglementaire, qui ne peut être supérieur à 800 grammes », devront suivre des règles spéciales. Ils seront soumis à un régime d’enregistrement par voie électronique (art. L. 6111-1, II, al. 2, du Code des transports), ainsi que, au 1er juillet 2018, à des dispositifs de signalement lumineux et de signalement électronique ou numérique (art. L. 34-9-2, al. 1er, du Code des postes et des communications électroniques), de limitation de capacités (art. L. 6214-4, al. 1er, du Code des transports) et de signalement sonore qui se déclenche en cas de perte de contrôle ou de maîtrise de la trajectoire du drone (art. L. 6214-5, al. 1er, du Code des transports). Leur télépilote devra également avoir suivi une formation (art. L. 6214-2, al. 1er, du Code des transports). Pour éviter le survol par un drone des centrales nucléaires ou d’autres zones à risque, la loi n° 2016-1428 punit le survol par maladresse ou négligence d’une zone interdite de six mois d’emprisonnement et de 15 000 € d’amende (art. L. 6232-12, al. 1er, du Code des transports). Il s’avère que le télépilote ignore souvent les règles auxquelles il est soumis, notamment les interdictions de survol. D’ailleurs, la Direction générale de l’aviation civile a publié en janvier 2017 le Guide aéromodélisme, modèles réduits et drones de loisir[39]. À cet égard, la loi n° 2016-1428 semble également avoir une vertu pédagogique. En effet, l’art. L. 425-1, al. 1er, du Code de la consommation impose dorénavant aux fabricants de drones d’inclure dans les emballages, même celui des pièces détachées, une notice d’information qui rappelle les obligations légales aux utilisateurs. Ces dispositions s’appliquent également au vendeur d’un drone d’occasion (al. 2 du même texte).

B. — L’approche curative : la mise en œuvre des règles de la responsabilité civile en cas de dommages causés par un robot

2020. Le développement de la robotique impose de réfléchir sur la détermination du responsable en cas de dommages causés par un robot. Il existe des fondements classiques de responsabilité que l’on peut fort bien invoquer en robotique (1). Toutefois, il convient de se demander si la robotique autonome pourrait exiger, à terme, que l’on repense la responsabilité civile (2).

1 – Les fondements classiques de responsabilité invocables en robotique

2121. D’une manière classique, les dommages causés par les robots pourraient trouver leur origine dans un défaut de sécurité, de sorte que la responsabilité du fait des produits défectueux serait applicable au producteur du robot. De même, les dommages générés par le robot en raison de son utilisation pourrait mettre en cause la responsabilité du fait des choses de l’utilisateur.

2222. La responsabilité du fait des produits défectueux du producteur du robot. La loi n° 98-389 du 19 mai 1998 relative aux produits défectueux, issue de la trans-position de la directive 85/374/CEE du 25 juillet 1985, et insérée aux art. 1386-1 à 1386-18 du Code civil, devenus les art. 1245 à 1245-17 depuis l’ordonnance n° 2016-131 du 10 février 2016 portant réforme du droit des contrats [40], met en place une responsabilité sans faute de plein droit pour le producteur, assortie de certaines causes d’exonération. L’intérêt de ce fondement est que la détermination du lien juridique entre la victime et le producteur est inutile (art. 1245 du Code civil). Ces dispositions d’ordre public sont applicables aux robots pris en tant que produits au sens de l’art. 1245-2 du Code civil, dans la mesure où les conditions sont remplies.

23Il convient d’estimer que la notion de produit inclut à la fois le matériel et le logiciel [41]. Ainsi, si le dommage était causé par un défaut du logiciel du robot, la responsabilité du fait des produits défectueux serait applicable. De la même manière, si le robot constituait un dispositif médical, à l’image du robot de soins personnels ou de l’exosquelette, il serait analysé comme un appareil de santé relevant de l’art. L. 5311-1, II, 3°, du Code de la santé publique, de sorte que le régime de la responsabilité du fait des produits défectueux serait encore applicable à ce produit. Mais les responsables pourraient être plus délicats à déterminer [42]. Il faudrait encore établir que le robot avait été mis sur le marché, ce qui laisserait à la victime d’un dommage la possibilité d’engager la responsabilité du producteur dans un délai de 10 ans. La mise en circulation est définie par l’art. 1245-4 du Code civil comme le moment où « le producteur s’en est dessaisi volontairement ». La victime pourrait alors engager la responsabilité du producteur, lequel est désigné comme le débiteur de la réparation par l’art. 1245 du Code civil. Toutefois, il pourrait arriver que la responsabilité soit solidaire entre le fabricant du robot et celui d’un élément le composant, en vertu de l’art. 1245-7 du Code civil. En principe, la responsabilité du vendeur ou du loueur du robot ne pourrait être engagée, à moins que le producteur ne puisse être identifié (art. 1245-6, al. 1er, du Code civil).

24Il s’agirait également pour la victime de prouver « le dommage, le défaut et le lien de causalité entre le défaut et le dommage » (art. 1245-8 du Code civil). Le robot ne doit pas offrir la sécurité à laquelle on peut légitimement s’attendre, au sens de l’art. 1245-3, al. 1er, du Code civil. S’agissant du dommage, l’art. 1245-1 du Code civil répare à la fois les dommages à la personne et ceux aux biens. Il peut donc s’agir d’une atteinte à la santé, à l’intégrité physique ou psychique de la victime, ou d’une destruction ou d’une dégradation d’un bien [43]. Concernant le lien de causalité, il n’existe pas de présomption de causalité, de sorte que la preuve peut être difficile à rapporter [44]. La condition la plus délicate à remplir en robotique sera celle de la preuve du défaut. En principe, une présomption de défaut d’origine pèse sur le producteur [45]. Néanmoins, le défaut devra être caractérisé. Or, la jurisprudence affirme que la dangerosité du produit n’est pas assimilable à sa défectuosité [46]. Il en découle qu’un produit peut donc pré-senter un danger sans forcément recéler un défaut de sécurité. Par conséquent, un robot comportant un danger ne serait pas nécessairement analysé comme recelant un défaut de sécurité, puisqu’il faudrait que, en plus d’être dangereux, il présente une anomalie, une défail-lance, ou un caractère anormalement dangereux [47]. Tel serait le cas si le robot avait un défaut intrinsèque résultant d’un défaut de conception ou de fabrication, comme une incapacité à percevoir correctement l’environnement du domicile de l’utilisateur lui interdisant de s’y déplacer en toute sécurité. Il en irait de même si le robot recelait un défaut extrinsèque résul-tant, par exemple, d’une absence d’information sur ses dangers par le producteur. En robo-tique, l’information du client prendra une place centrale. Si un robot de services personnels devait présenter un danger pour l’utilisateur, le producteur devrait alors mettre en place une information suffisante contre les dangers potentiels et sur les précautions à prendre [48], faute de quoi, il ne présenterait pas la sécurité que l’utilisateur attendrait. Les informations varieront selon la qualité de la victime. Elles seront plus limitées s’agissant du professionnel capable de connaître et de se prémunir contre certains risques [49], mais seront renforcées à l’égard du consommateur qui devrait recevoir une information très complète [50]. Par exemple, le robot d’assistance personnelle qui resterait incapable de détecter la présence de la main d’un enfant sous ses roues devrait obligatoirement être accompagné d’une mise en garde explicite contre ce danger.

25Il convient d’ajouter qu’en France, le producteur du robot pourrait tenter d’invoquer la cause d’exonération du risque de développement, lorsque « l’état des connaissances scientifiques et techniques, au moment où il a mis le produit en circulation, n’a pas permis de déceler l’existence du défaut » (art. 1245-10, al. 1er, 4°, du Code civil). En revanche, le producteur ne s’exonérerait pas en invoquant le respect des règles de l’art ou des normes techniques (art. 1245-9 du Code civil).

2623. La responsabilité du fait des choses de l’utilisateur du robot. En l’absence de défaut de sécurité, le dommage pourrait être imputable au seul utilisateur du robot car « quiconque se sert d’une chose est responsable envers les tiers » [51]. Il pourrait s’agir du propriétaire du robot, comme du locataire ou de toute personne disposant de la garde de la machine. En dehors de tout contrat, un utilisateur peut engager sa responsabilité civile sur le fondement du fait des choses (art. 1242, al. 1er, du Code civil). Le gardien du robot ne saurait s’exonérer de sa responsabilité en établissant qu’il n’avait pas commis de faute, car il s’agit d’une responsabilité sans faute, mais serait en droit de prouver la force majeure ou la faute de la victime [52]. Ainsi, la victime devrait seulement prouver le fait de la chose, donc du robot, puis établir le lien de causalité entre le fait de la chose et le dommage. Le robot constitue sans aucun doute une chose, au sens de l’art. 1242, al. 1er, du Code civil, lequel s’applique non seulement aux machines, comme l’outillage industriel ou agricole [53], mais également aux machines automatiques, à l’image des escalators [54], des ascenseurs [55], ou des portes automatiques de magasin [56]. La jurisprudence n’exige ni un vice interne [57], ni une chose dangereuse [58]. Même si la dangerosité avait pu permettre de distinguer entre la garde du comportement et celle de la structure [59], l’arrêt de la CJCE du 25 avril 2002 a mis fin à cette distinction [60]. Il importe également peu que la chose soit actionnée ou non par la main de l’homme [61], puisque ce fondement ne repose que sur la garde. Par conséquent, de ce point de vue, il n’est nul besoin de se demander si le robot est actionné par la main de l’homme ou s’il est autonome. De plus, la victime doit rapporter la preuve de l’intervention matérielle du robot dans la réalisation du dommage [62]. La jurisprudence exige que la chose ait été « l’instrument du dommage » [63], même pour partie, ou qu’elle ait joué un rôle actif dans sa production [64]. Cependant, si le robot était entré en contact avec la personne ou le bien de la victime, la jurisprudence présumerait alors le rôle actif de la chose [65].

27Le gardien du robot sera considéré comme le responsable du dommage. S’il s’agit en principe du propriétaire de la chose, lequel est présumé en être le gardien [66], la garde aura pu être transférée à un tiers qui devra assumer la réparation du dommage [67]. La garde est matérielle et non juridique, puisqu’elle se caractérise par le pouvoir d’usage, de direction et de contrôle [68]. Il en découle que le gardien du robot sera celui qui en aura conservé la maîtrise en exerçant des pouvoirs effectifs. Si cela ne pose pas de problèmes pour de nombreux robots actuels, cette question trouvera ses limites lors du développement de robots présentant des capacités élevées d’autonomie. Ces difficultés exigent que l’on se demande s’il faut repenser la responsabilité civile à l’ère de la robotique autonome.

2 – Repenser la responsabilité civile à l’ère de la robotique autonome ?

2824 . La robotique autonome, qui regroupe les robots capables d’agir, de se déplacer, voire de décider en dehors de toute intervention humaine, pourrait-elle remettre en cause les règles du droit de la responsabilité civile, étant donné qu’il pourrait être plus délicat de déterminer l’auteur du dommage ? L’une des voies pourrait consister à considérer que l’utilisateur du robot serait responsable d’un dommage provoqué par sa machine même à la suite d’une perte de contrôle. Toutefois, pour les robots autonomes susceptibles d’un comportement imprévisible, la solution pourrait passer par le renforcement des obligations du fabricant. Cette analyse pourrait même remplacer la responsabilité de l’utilisateur dans les hypothèses où son robot aurait causé un dommage, sans qu’il ait fait autre chose que l’utiliser. Toutefois, en aucun cas, le recours à la personnalité juridique des robots n’offrirait une solution appropriée.

2925. La responsabilité de l’utilisateur du robot en cas de perte de contrôle humain sur la machine. L’autonomie du robot pourrait avoir pour effet que son utilisateur perde le contrôle de sa machine, de sorte qu’il pourrait être plus difficile de considérer qu’il dispose des pouvoirs qui caractérisent sa garde matérielle. L’autonomie rendrait alors plus délicate la mise en œuvre du régime de la responsabilité du fait des choses. Il serait possible d’assouplir la jurisprudence en considérant que le contrôle sur le robot autonome avait persisté par le seul effet de la volonté de son utilisateur gardien, puisqu’il l’avait mis en œuvre pour ses besoins propres. À l’image de la chose lancée qui continue à rester sous le contrôle de son gardien qui, « par une sorte de vision prospective, […] avait assigné une trajectoire à la chose et donc, par sa volonté, avait continué d’en assurer la garde, dans le temps et dans l’espace » [69], il serait aisément concevable que les tribunaux estiment que l’utilisateur serait responsable au titre de l’art. 1242, al. 1er, du Code civil dès lors qu’il aurait assigné une tâche à son robot autonome, laquelle aurait eu pour effet de causer un dommage à un tiers. L’avantage serait que le législateur n’aurait même pas à intervenir.
26 . De même, il serait encore envisageable d’élargir ou de copier le modèle de la responsabilité du fait des animaux pour le robot autonome, puisque l’art. 1243 du Code civil dispose que « le propriétaire d’un animal, ou celui qui s’en sert, pendant qu’il est à son usage, est responsable du dommage que l’animal a causé, soit que l’animal fût sous sa garde, soit qu’il fût égaré ou échappé ». Cette analyse éviterait les difficultés relatives à la question du contrôle du robot autonome par son gardien, puisque la jurisprudence estime que la perte du contrôle de l’animal n’est pas exclusive des pouvoirs de direction, de contrôle et d’usage qui caractérisent la garde [70]. Ainsi, la perte de contrôle d’un robot autonome pourrait être assimilable à la fuite d’un animal, de sorte que son gardien serait automatiquement responsable. Toutefois, le législateur serait alors contraint d’adapter les dispositions textuelles.
27. Une autre piste pourrait encore être exploitée. On pourrait aussi imaginer de copier le système d’indemnisation mis en place par la loi du 5 juillet 1985 sur les accidents de la circu- lation pour tous les robots autonomes. Dès lors que le robot autonome serait impliqué dans un accident ayant causé un dommage à un tiers, l’utilisateur serait tenu de l’obligation d’indemniser la victime. À cet égard, une assurance spécifique devrait alors être créée pour couvrir ces dommages. Cependant, la mise en place de ce régime serait bien plus lourde que les propositions précédentes, et ne se justifierait pas pour un grand nombre de robots autonomes. Mais, à l’image de la loi de 1985, elle aurait pour avantage d’être très protectrice pour les victimes, même en cas de dysfonctionnement du robot.

3028 . La responsabilité du fabricant en robotique autonome susceptible de comportement imprévisible. Aujourd’hui, les robots tendent à être de plus en plus autonomes, surtout s’ils sont mobiles. Il suffit de songer aux robots aspirateurs ou aux robots tondeuses qui effectuent leurs tâches sans aucune supervision humaine. Selon le point AF de la Résolution du 16 février 2017 concernant les règles en robotique, « dans l’hypothèse où un robot puisse prendre des décisions de manière autonome, les règles habituelles ne suffiraient pas à établir la responsabilité juridique pour dommages causés par un robot, puisqu’elles ne permettraient pas de déterminer quelle est la partie responsable pour le versement des dommages et intérêts ni d’exiger de cette partie qu’elle répare les dégâts causés ». Le point AI du même texte ajoute que « nonobstant le champ d’application de la directive 85/374/CEE, le cadre juridique actuellement en vigueur ne suffirait pas à couvrir les dommages causés par la nouvelle généra-tion de robots, puisque celle-ci peut être équipée de capacités d’adaptation et d’apprentissage qui entraînent une certaine part d’imprévisibilité dans leur comportement, étant donné que ces robots tireraient, de manière autonome, des enseignements de leurs expériences, variables de l’un à l’autre, et interagiraient avec leur environnement de manière unique et impré-visible ».

31À notre sens, à la lumière de l’état de l’art de la robotique et des développements prévisibles à moyen terme, il nous semble que ce prétendu vide juridique est exagéré. Le robot autonome et doté de capacités d’auto-apprentissage est seulement en mesure d’adopter un comportement qui n’est pas imposé par l’homme, mais qui reste dans le champ du prévisible, même s’il est anormal. Ainsi, un robot tondeuse pourrait sortir de son périmètre de travail et venir blesser un enfant. Cette situation ne serait pas voulue, ni par le fabricant, ni par l’utilisateur, mais resterait dans le spectre des possibles et n’aurait rien d’imprévisible. L’anormalité du comportement d’un robot n’est aucunement assimilable à une imprévisibilité. L’imprévisibilité en robotique marquerait une rupture véritable entre les comportements potentiels envisageables, même dangereux, et les comportements inenvisageables. Actuellement, la directive Machines 2006/42/CE du 17 mai 2006 interdirait de mettre sur le marché un robot qui présenterait un tel danger pour la sécurité de l’homme, puisque rien ne permettrait de se prémunir contre les risques.

3229. Ainsi, en adoptant une approche réaliste et utilitaire de la robotique, on doit affirmer d’ores et déjà que si le comportement du robot devait être imprévisible, au sens de la Résolution européenne, il n’y aurait pas d’intérêts, autres qu’économiques, de mettre une telle machine entre les mains des utilisateurs. Il faudrait alors en déduire, dans une vision humaniste, qu’un dommage causé par un robot imprévisible au point d’être dangereux devrait être analysé comme présentant un défaut de sécurité qui engagerait la responsabilité du producteur au titre des produits défectueux. Il s’agirait d’une application de la théorie du risque-profit qui veut que celui qui tire des bénéfices d’une activité doit en supporter les conséquences en termes de responsabilité. L’avantage de cette analyse serait qu’elle permettrait d’imposer au fabricant un contrôle à la source afin de contenir au maximum les risques présentés par ses robots imprévisibles. De même, elle éviterait que l’on reporte sur l’utilisateur les risques liés à l’imprévisibilité de son robot, qu’il serait de toute manière dans l’impossibilité matérielle et technique d’éviter. Au surplus, elle rendrait inutile le recours au calcul impossible de la proportionnalité de la responsabilité en fonction de la durée de formation du robot par l’utilisateur, évoqué par le paragraphe 56 la Résolution du 16 février 2017 qui propose qu’« une fois les parties responsables en dernier ressort identifiées, leur responsabilité devrait être proportionnelle au niveau réel d’instructions données au robot et à l’autonomie de celuici, de sorte que, plus un robot est autonome, plus sa capacité d’apprentissage est grande, et plus sa période de formation a été longue, plus grande devrait être la responsabilité de la personne qui l’a formé […] ».

33Si la position inverse devait être tenue, à savoir celle consistant à affirmer qu’il appartiendrait à l’utilisateur d’assumer les risques de dommages liés à l’utilisation d’un robot imprévisible, cela constituerait non seulement un déplacement dangereux du poids des risques sur l’utilisateur, mais cela participerait à renforcer l’indifférence du fabricant quant à la gestion et à la limitation de l’imprévisibilité de ses robots. Or, à notre sens, la robotique autonome doit placer au service de l’humanité des machines de plus en plus sûres, faute de quoi, on pourrait alors douter de son utilité. Cette direction ne risquerait pas de freiner l’innovation. Bien au contraire, la multiplication d’accidents avec ce type de robots pourrait porter un coup d’arrêt à ce secteur, surtout en robotique de services. En imposant la sécurité des robots autonomes imprévisibles mis sur le marché, l’acheteur aurait davantage confiance dans ces produits, ce qui permettrait le développement des entreprises innovantes. La seule exception envisageable serait le cas où le robot autonome imprévisible constituerait un bienfait pour l’homme en raison des avantages inégalés par d’autres technologies, à la condition de mettre en balance les bénéfices et les risques pour la société.

3430. Le recours à la personnalité juridique des robots, une solution inappropriée. Le paragraphe 59 de la Résolution du 16 février 2017 sur les règles en robotique demande à la Commission d’examiner toutes les solutions juridiques envisageables, telles que la mise en place d’un régime d’assurance obligatoire (§ 59, a), la mise en place d’un fonds de compensation (§ 59, b), ou encore « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers ; il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers » (§ 59, f). On constate que même si le paragraphe 56 indique qu’« en l’état actuel des choses, la respon-sabilité doit être imputable à un humain et non au robot », et que l’auteure du projet insiste sur le fait que la création d’une personnalité juridique serait une possibilité parmi d’autres [71], la notion de personnalité juridique transparaît implicitement au travers de l’ensemble de la Résolution. En effet, le point AB souligne que « plus un robot est autonome, moins il peut être considéré comme un simple outil contrôlé par d’autres acteurs (tels que le fabricant, l’opérateur, le propriétaire, l’utilisateur, etc.) […] ». Le point AC poursuit en ajoutant qu’« en fin de compte, l’autonomie des robots pose la question de leur nature à la lumière des catégories juridiques existantes ou de la nécessité de créer une nouvelle catégorie dotée de ses propres caractéristiques et effets spécifiques ». Ainsi, dès le début, on trouve sous-entendue la nécessité de créer une personnalité juridique pour le robot. Plus loin, le point Z insiste en indiquant que « grâce aux impressionnants progrès technologiques au cours des dix dernières années, non seulement les robots contemporains sont capables de mener à bien des tâches qui relevaient autrefois exclusivement de la compétence humaine, mais encore que la mise au point de certaines fonctionnalités autonomes et cognitives (comme la capacité de tirer des leçons de l’expérience ou de prendre des décisions quasi-indépendantes) rapproche davantage ces robots du statut d’agents interagissant avec leur environnement et pouvant le modifier de manière significative ; que, dans un tel contexte, la question de la responsabilité juridique en cas d’action dommageable d’un robot devient une question cruciale ».

35On constate que la Résolution tend à faire du robot autonome plus qu’un simple outil. Se transformant en un acteur, le robot serait un agent agissant qui pourrait alors être responsable de ses actes ou inactions. On doit se demander quel serait l’intérêt de rendre responsable le robot lui-même, si ce n’est celui de défausser les fabricants de leur responsabilité. En faisant l’acquisition d’un robot autonome, agent agissant, le propriétaire serait contraint de l’assurer, comme il assure ses propres enfants. Cette solution ne permettrait en aucun cas de renforcer la sécurité des utilisateurs des robots et des tiers, puisque le fabricant serait soulagé du fardeau assurantiel.

3631. À notre sens, le robot autonome ne saurait ni être vu comme un acteur juridique, ni être responsable en tout ou partie de ses actes ou de ses inactions. Il faut évacuer immédiatement l’argument selon lequel il existerait déjà des personnes juridiques non humaines, à savoir les personnes morales. En effet, celles-ci sont une fiction juridique et sont toujours animées par des personnes humaines. Si l’attribution de la personnalité juridique à une créature non humaine comme le robot était envisageable, encore faudrait-il qu’elle témoigne d’une certaine altérité par rapport à l’homme, notamment sur la base de critères tels que la conscience, la sensibilité, l’amour, ou l’art [72]. Le philosophe danois Peter Kemp considère que la personne au sens actuel du terme est « l’être vivant qui est conscient de lui-même, comme étant quelqu’un qui agit de son propre mouvement et qui, par son acte, poursuit une fin. Tout être vivant n’est pas une personne, car un tel être – par exemple une plante ou un animal – n’est pas nécessairement conscient de lui-même en tant qu’être indépendant ou autonome » [73]. Dans cette occurrence, il nous semblerait envisageable d’accorder la personnalité juridique à un robot s’il demandait à devenir un sujet de droit pour lui-même afin d’exercer ses droits dans son propre intérêt. Or, en dehors de la science-fiction, la création d’une personnalité juridique imposerait la reconnaissance de droits et de devoirs aux robots dont il ne saurait que faire. Les robots, et pour encore longtemps, ne sont rien d’autres que des machines dont on peut se débarrasser sans égard pour elles, car ils sont vides de conscience, sentiments, pensées ou volonté propre. Au demeurant, même si l’auteure du rapport en droit civil de la robotique insiste sur le fait que « le but n’est absolument pas de donner des droits humains aux robots » [74], on pourrait craindre que la moindre brèche dans l’édifice finisse par faire basculer tout l’ensemble. En accordant des droits et des obligations à un simple outil, même limités, le risque serait de faire éclater tôt ou tard les frontières entre l’homme et la machine.

3732. Nous avons constaté que le robot peut déjà aujourd’hui être encadré juridiquement, de sorte que les dangers pour la santé ou la sécurité qu’il pourrait présenter pourront être maîtrisés. En revanche, la question est plus délicate concernant les aspects éthiques, souvent inédits, qui risquent d’être sous-estimés. Dès lors, quelles sont les règles éthiques destinées à protéger l’homme contre le robot ?

II. — Les règles éthiques destinées à protéger l’homme contre le robot

3833. Les innovations en robotique interrogent la société sur ce qui est socialement et moralement acceptable. Pour affronter les bouleversements à venir, les acteurs du monde de la robotique se sont emparés très tôt des problématiques éthiques qui émergèrent autour du robot. De ces réflexions, des guides éthiques ont commencé à apparaître, générant alors une forme d’autorégulation de l’éthique de la robotique par les acteurs eux-mêmes [75]. En Europe, elle fut initiée en 2004 à l’occasion d’un colloque organisé par le Réseau européen de la recherche en robotique (EURON) en Italie [76], puis matérialisée dans la première feuille de route de roboéthique en 2006 [77]. Cette forme d’éthique appliquée à la robotique s’adresse à l’homme, c’est-à-dire aux concepteurs, aux fabricants et aux utilisateurs des robots. En Europe, le Consortium européen RoboLaw pour l’éthique en robotique publia des recommandations d’ordre éthique et juridique dans ses Guidelines on Regulating Robotics de 2014 [78]. Puis, ce fut au tour de la Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene (CERNA) de réfléchir à l’impact de la robotique sur la société et de publier un rapport destiné à servir de guide aux chercheurs en robotique [79].

39Cependant, au regard du caractère crucial pour la société et l’humanité des questions éthiques soulevées par la robotique, l’autorégulation par les acteurs de la robotique ne saurait se suffire à elle seule. Le parlement européen a ainsi choisi d’adopter la Résolution du 16 février 2017 relative aux règles de droit civil sur la robotique en orientant le texte vers la mise en place d’un cadre éthique sous la forme d’une charte éthique en robotique (A). Cependant, à notre sens, la formulation d’un corpus de guides éthiques sans valeur juridique est intéressante mais ne saurait protéger efficacement l’homme contre le robot. Aussi, il nous apparaît que nous devrions nous engager vers l’édification d’un droit de l’éthique en robotique : la roboéthique (B), dont nous poserons les fondements.

A. — La création d’un cadre éthique européen sous la forme d’une charte éthique en robotique

4034. Alors que l’autorégulation se mettait en place, les États prêtèrent peu d’intérêt à la question de l’impact social et humain de la robotique. Seule la Corée du Sud initia, dès 2007, la création d’une charte éthique des robots [80] et finit par adopter en 2008 la loi Intelligent Robots Development and Distribution Promotion Act, dans laquelle elle entérina la charte éthique des robots intelligents [81]. La France, qui s’est d’abord intéressée à l’éthique en robotique en 2013, a fini par se concentrer sur les aspects économiques comme en témoignent les plans gouvernementaux de la Nouvelle France industrielle élaborés par la suite. Face à l’importance des défis, le parlement européen a adopté la Résolution du 16 février 2017 relative aux règles de droit civil sur la robotique et a proposé d’instaurer un cadre éthique de référence, dont il conviendra d’examiner les destinataires (1), puis le contenu (2).

1 – Les destinataires du cadre éthique de référence : les concepteurs, les fabricants et les utilisateurs des robots

4135. Le paragraphe 11 de la Résolution européenne indique « qu’il est nécessaire de mettre au point un cadre éthique de référence clair, rigoureux et efficace pour le développement, la conception, la fabrication, l’utilisation et la modification des robots qui complète utilement les recommandations juridiques du présent rapport ainsi que l’acquis national et de l’Union existant ». Ainsi, elle précise que les destinataires du cadre éthique de référence sont les concepteurs, les fabricants et les utilisateurs des robots. Toutefois, la Résolution semble avoir oublié la catégorie des bénéficiaires, c’est-à-dire ceux qui ne sont ni propriétaires du robot, ni utilisateurs, mais qui jouiront malgré tout de la machine [82]. Par exemple, une personne qui fera l’objet d’une rééducation dans un établissement de soins au moyen d’un robot de réhabilitation ne sera pas utilisatrice de la machine. Pourtant, elle serait susceptible de subir un certain nombre d’atteintes par le biais du robot.

4236 . De même, ce sont encore les concepteurs, les fabricants et les utilisateurs des robots qui se verront appliquer les lois Asimov de la robotique. En effet, le point T de la Résolution indique qu’« il y a lieu de considérer les lois d’Asimov comme s’appliquant aux concepteurs, aux fabricants et aux opérateurs de robots, y compris de robots dotés d’autonomie et de capacités d’auto-apprentissage, étant donné que lesdites lois ne peuvent être traduites en langage de programmation ». Les lois d’Asimov ont été inventées par l’écrivain de science-fiction Isaac Asimov dans sa nouvelle « Runaround » (Cercle vicieux) de 1942, publiée dans le recueil I, Robot en 1950. Il impose à ses robots de respecter les Lois suivantes : « 1. Un robot ne peut porter atteinte à un être humain, ni permettre, en restant passif, qu’un être humain soit exposé au danger. 2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si ces ordres entrent en conflit avec la première loi. 3. Un robot doit protéger son existence tant que cette protection n’entre en conflit ni avec la première ni avec la seconde loi. » L’écrivain avait ajouté plus tard une loi prioritaire sur les autres : « 0. Un robot ne peut par son action mettre l’humanité en danger, ni, restant passif, laisser l’humanité en danger. » Il est surprenant de trouver évoqué dans une Résolution un outil simplement littéraire pseudo-juridique, surtout que le texte européen ne justifie nullement en quoi le recours à ces Lois serait nécessaire. De plus, son emploi doit être réalisé avec précaution car l’écrivain avait volontairement instillé des ambiguïtés afin de nourrir la trame de son œuvre. Il n’avait jamais prétendu vouloir édifier de véritables règles éthiques. Or, des règles éthiques ne sauraient comporter des obscurités sous peine d’engendrer de nombreux conflits. Au surplus, dans l’éventualité douteuse où l’on admettrait que ces Lois seraient applicables, force est de rappeler que l’écrivain les avait conçues à destination des robots eux-mêmes car elles instaurent une forme d’éthique du robot. Les règles roboéthiques, qui sont destinées à l’homme en tant que concepteur, fabricant ou utilisateur, sont à distinguer des règles d’éthique du robot qui ont vocation à s’adresser au robot lui-même en lui donnant la capacité de prendre des décisions morales. L’éthique du robot, encore appelée la morale de la machine, a été mise en lumière par la question du trolley paradox[83]. Celui-ci met en scène une voiture autonome qui, en cas d’accident, devrait choisir entre écraser un enfant qui traverserait dans la rue ou tuer son passager. Aujourd'hui en robotique, l’éthique du robot est encore à l’état de concept théorique. Même s’il était possible de concevoir un robot capable d’un calcul algorithmique éthique, la machine resterait totalement incapable d’appréhender conceptuellement son choix moral.

2 – Le contenu du cadre éthique de référence

4337. Le paragraphe 11 de la Résolution européenne souhaite mettre en place un cadre éthique de référence, et propose à cette fin « en annexe à la présente Résolution, un tel cadre, sous forme de charte établissant un code de conduite pour les ingénieurs en robotique, une déontologie pour les comités d’éthique de la recherche lorsqu’ils examinent les protocoles de robotique, et de licences-type pour les concepteurs et les utilisateurs ».

4438. La mise en place d’un cadre éthique général. La Résolution rappelle les divers fondements du cadre éthique. Ainsi, selon le paragraphe 13, « le cadre éthique de référence devrait se fonder sur les principes de bienfaisance, de non-malfaisance, d’autonomie et de justice, sur les principes et valeurs consacrés à l’article 2 du traité sur l’Union européenne et par la Charte des droits fondamentaux de l’Union européenne (ci-après dénommée "Charte"), tels que la dignité humaine, l’égalité, la justice et l’équité, la non-discrimination, le consentement éclairé, le respect de la vie privée et de la vie familiale et la protection des données, ainsi que sur d’autres principes et valeurs fondateurs du droit de l’Union, tels que la non-stigmatisation, la transparence, l’autonomie, la responsabilité individuelle et la responsabilité sociale, et sur les pratiques et codes de déontologie existants ». La Résolution ajoute également des principes nouveaux aux paragraphes 3 et 12. En effet, le paragraphe 3 « souligne que le développement de la technologie robotique devrait avant tout viser à compléter les capacités humaines et non à les remplacer ; estime qu’il est indispensable, dans le cadre du développement de la robotique et de l’intelligence artificielle, de garantir la possibilité d’exercer un contrôle humain à tout moment sur les machines intelligentes ; souligne qu’il convient d’accorder une attention toute particulière au fait qu’une relation émotionnelle est susceptible de se développer entre l’homme et le robot, notamment chez les personnes vulnérables (enfants, personnes âgées, personnes handicapées), et attire l’attention sur les problématiques soulevées par les éventuelles conséquences physiques ou émotionnelles graves, pour l’utilisateur humain, d’un tel lien émotionnel ». Ainsi, ce texte proscrit le remplacement des capacités humaines au moyen des technologies robotiques, et impose le maintien d’un contrôle humain, ainsi qu’une vigilance concernant le développement des émotions avec la machine. Le paragraphe 12 « insiste sur le principe de transparence, à savoir qu’il devrait toujours être possible de fournir la justification rationnelle de toute décision prise avec l’aide de l’intelligence artificielle qui est susceptible d’avoir une incidence importante sur la vie d’une ou de plusieurs personnes ; estime qu’il doit toujours être possible de traduire les calculs d’un système d’intelligence artificielle dans une forme compréhensible pour l’être humain ; estime que les robots avancés devraient être dotés d’une "boîte noire" contenant les données sur chaque opération réalisée par la machine, y compris les logiques ayant contribué à la prise de décisions ». Il s’agit donc d’instaurer des principes de transparence et d’intelligibilité des décisions du robot pour l’homme, ainsi qu’un principe de conservation des données pour chaque décision du robot. Cependant, la Résolution ne dit pas que ces principes auront vocation à être entérinés.

4539. La charte sur la robotique. La Résolution annexe une charte sur la robotique. Cette dernière propose, selon le point W, « un code de conduite éthique pour les ingénieurs en robotique, un code de déontologie pour les comités d’éthique de la recherche, une "licence" pour les concepteurs et une "licence" pour les utilisateurs ». Par conséquent, la charte vient chapeauter différents supports éthiques. Cela n’est pas sans poser plusieurs questions.

46Tout d’abord, la Résolution aurait dû clarifier l’organisation entre les différentes règles qu’elle évoque, comme le principe nouveau du maintien d’un contrôle humain, par rapport à la charte éthique.

47Ensuite, la charte n’aura pas d’efficacité juridique pour protéger les personnes contre les atteintes des robots. En effet, le plus souvent, une charte éthique, un code de conduite, un code de bonne pratique, ou encore une déontologie professionnelle – les mots peuvent varier selon les acteurs – est l’émanation d’une forme d’autorégulation d’un secteur professionnel, à l’image du code d’éthique pour ingénieurs de l’IEEE (The Institute of Electrical and Electronics Engineers). Manifestation d’un droit souple (soft law) [84], classiquement les chartes sont chargées d’anticiper ou d’éviter le recours au droit formel, et contiennent des droits et des devoirs, des principes, ou encore des valeurs ou des comportements que les émetteurs décident volontairement de respecter. En cela, on constate que la charte issue de la Résolution est en rupture avec les pratiques habituelles, puisqu’elle n’est pas le fruit des acteurs du secteur de la robotique.

48Elle présente de plus les inconvénients de cette origine institutionnelle. En effet, comme le code de conduite éthique pour les ingénieurs en robotique n’émane pas de cette profession elle-même, il n’est aucunement assuré qu’il soit à même d’en comprendre les besoins ou le fonctionnement. Il pourrait arriver qu’en raison d’une rupture entre l’énoncé théorique du texte du code de conduite et la pratique des ingénieurs, ceux-ci ne soient pas incités à le mettre en application. Les mêmes remarques pourraient être faites concernant le code de déontologie pour les comités d’éthique de la recherche. Cela est d’autant plus vrai que ces textes n’ont pas de valeur obligatoire. Ainsi les principes éthiques contenus n’auront pas d’effet juridique.

49De même, la notion de « licence » pour les concepteurs et pour les utilisateurs évoquée par la Résolution est également délicate d’interprétation. Généralement, la « licence utilisateur » fait référence au contrat de licence utilisateur en matière de logiciels entre le titulaire de certains droits, notamment de propriété intellectuelle, et l’utilisateur, et fixe les conditions d’utilisation du produit. On peut se demander si la Résolution a voulu offrir un modèle contractuel pour les contrats de licence utilisateurs. À aucun moment, elle n’exprime cette idée. Si cette analyse était néanmoins la bonne, cela voudrait dire que cette licence n’aurait une valeur juridique que si elle venait à être entérinée contractuellement. La licence pour concepteurs, qui impose un certain nombre d’obligations à leur charge, suscite le même doute. Elle semble avoir une simple valeur morale à leur égard.

50Il découle de ces remarques que l’absence d’adéquation au réel et d’effectivité juridique des règles éthiques pourrait constituer une limite réelle à la protection des personnes face au robot. Dès lors, il serait légitime de se demander s’il ne faudrait pas édifier un véritable droit de l’éthique en robotique ?

B. — L’édification d’un droit de l’éthique en robotique : la roboéthique

5140. Par de nombreux aspects, les technologies robotiques auront un impact social et humain considérable. Des questions inédites se poseront, comme celles de savoir si on peut laisser une personne âgée seule avec un robot pour s’occuper d’elle, faire confiance à un robot pour éduquer un enfant, dévoiler sa vie privée à un robot, ou encore si un robot est en mesure de nous interdire ou de nous imposer quelque chose. Dès lors, on doit constater la nécessité d’instaurer des règles éthiques en robotique afin de protéger l’homme. L’exemple de la bioéthique révèle que l’éthique seule trouve ses limites pour réguler une activité [85], puisque même la communauté scientifique finit par réclamer du droit [86]. Le droit permet ainsi de dépasser les travers de l’autorégulation car, en tant qu’émanation de la société, il en supporte les valeurs. Il nous est alors apparu que la solution pour rendre effectifs des principes éthiques en robotique consistait à édifier un droit de l’éthique en robotique. Le législateur serait ainsi invité à mettre en place un texte destiné à poser des principes généraux. Dans ce cas de figure, il resterait aux acteurs de la robotique à venir eux-mêmes intégrer ces grandes règles roboéthiques pour les mettre en adéquation avec leurs pratiques. Ce passage de l’éthique au droit en robotique s’inspire largement de celui qui s’est réalisé de l’éthique au droit en biologie à l’origine des lois bioéthiques [87]. Tout comme pour la bioéthique, c’est aussi en termes de droits fondamentaux que la roboéthique sera amenée à intervenir afin de prévenir les risques sociaux et humains.

52Ainsi, la roboéthique pourrait autoriser l’édification d’un socle de règles éthiques qui auraient pour intérêt d’être dotées d’une efficacité juridique. Toutefois, ces effets juridiques doivent être mesurés. En effet, il apparaît que certains principes roboéthiques pourront d’ores et déjà être fondés sur un support juridique existant (1), tandis que d’autres appelleront l’intervention du législateur pour être efficaces (2).

1 – Les principes roboéthiques fondés sur un support juridique existant

5341 . Certains principes roboéthiques, que le législateur devra entériner, pourront être fondés sur un support juridique déjà existant. Il en va ainsi de cinq principes que nous avons édifiés au regard de l’état de l’art en robotique et de ses développements prévisibles à plus long terme.

5442. Le principe roboéthique de la protection de l’homme contre les atteintes causées par un robot. Les atteintes à l’homme pourraient être causées, par exemple, par un robot de soins qui viendrait à blesser une personne âgée ou handicapée. L’édification de ce principe roboéthique pourrait dériver de la notion de dignité humaine. Celle-ci recèle en elle-même une telle puissance normative qu’elle est apte « à remplacer la norme absente, à être la valeur capable de descendre du firmament de la morale pour combler la béance du droit incomplet » [88]. La Charte des droits fondamentaux de l’Union européenne du 7 décembre 2000 place la dignité humaine comme le fondement de tous les droits [89], puisqu’elle est inviolable (art. 1er). Le droit français, en interdisant toute atteinte à la dignité de la personne (art. 16 du Code civil), fait également d’elle un principe fondamental qui chapeaute tous les autres principes relatifs à la protection du corps humain [90]. Aussi, la dignité apparaîtrait naturellement comme la source du principe roboéthique de la protection de l’être humain contre toute atteinte par un robot. Il en découlerait que le robot ne saurait porter atteinte à l’homme, même s’il était autonome. Un robot délivrant à un être humain des soins inappropriés engendrant malpropreté ou malnutrition porterait alors atteinte à la dignité de la personne. Il en irait de même en l’absence de toute atteinte physique, dès lors que les activités du robot auprès ou sur la personne trahiraient un outrage en la réduisant à l’état de chose ou d’animal [91]. Tel serait bien le cas d’un robot de nutrition qui porterait la nourriture automatiquement à la bouche d’une personne sans considération pour ses besoins et ses facultés physiques ou mentales. Bien entendu, ce ne serait pas dans le robot qu’il faudrait traquer l’inhumanité, mais bien dans l’utilisation qui en serait faite par l’homme. Dans tous les cas, ce principe roboéthique imposerait, d’une part, de donner à la personne le droit de refuser d’être prise en charge par un robot et, d’autre part, d’exiger son consentement préalable à l’emploi d’un robot de soins personnels [92].

5543. Le principe roboéthique de la protection de la liberté de la personne face au robot. Un robot pourrait être chargé de préparer le repas d’une personne âgée atteinte de diabète et refuser de lui délivrer des petits gâteaux qu’elle réclamerait. Un fauteuil roulant robotisé pourrait refuser d’avancer vers un précipice malgré l’ordre de la personne handicapée. Ainsi, certains robots autonomes risqueront dans un avenir proche d’empiéter sur la liberté de la personne. Or, celle-ci est une valeur protégée tant par la Charte des droits fondamentaux (art. 6) que par la Convention européenne des droits de l’homme (art. 5, § 1) ou par la Déclaration des Droits de l’Homme et du Citoyen de 1789 (art. 1, 2 et 4) [93]. Elle nous semble devoir être réaffirmée face aux robots. Toutefois, un affrontement de droits fondamentaux pourrait se produire avec pour principale justification de protéger la personne. En effet, la protection de la liberté pourrait se trouver limitée par la prise en compte de sa sécurité ou de sa santé. À notre sens, si un médecin ne peut imposer à un patient une prescription, même s’il devait en aller de sa vie, on doit poser le principe selon lequel un robot, même au-delà de la seule sphère médicale, ne pourrait imposer ou interdire un comportement à une personne [94]. La seule limite à cette affirmation de la liberté décisionnelle de l’homme devrait consister, soit dans la protection de la sécurité des tiers, soit dans l’incapacité mentale de la personne à comprendre les conséquences de ses ordres [95].

5644. Le principe roboéthique de la protection de l’homme contre les atteintes à la vie privée par un robot. Tous les robots sont susceptibles de porter atteinte à la vie privée dans la mesure où ils sont dotés d’organes qui rendent cela possible. Les robots autonomes, comme les robots de sécurité, les robots de soins ou les robots de compagnie, seront cependant en première ligne, puisque leurs fonctions exigeront qu’ils soient en contact étroit avec l’homme, impliquant de facto qu’ils deviennent les témoins de leur vie privée. Toutefois, il ne s’agira pas de la vie privée du seul utilisateur qui sera en cause, puisque le robot pourrait dévoiler également celle des tiers, comme les membres de la famille, les amis ou les aidants. Dans tous les cas, l’auteur de l’atteinte ne serait pas le robot lui-même, mais l’homme derrière lui, comme le prestataire de services à distance dans le cas d’un robot de soins aux personnes. Le droit à la vie privée est protégé en droit supranational tant par la Convention européenne des Droits de l’Homme (art. 8) que par la Charte des droits fondamentaux (art. 7). En droit interne, le droit à la vie privée a valeur constitutionnelle [96]. La vie privée peut donc faire l’objet d’une protection effec-tive sur le fondement de l’art. 9, al. 1er, du Code civil selon lequel « chacun a droit au respect de sa vie privée », puisqu’il est opposable à tous, même dans le cadre strictement inter-familial [97]. Il en découle qu’un robot utilisé par un époux afin de surveiller l’autre porterait atteinte à sa vie privée. Toutefois, la personne pourrait consentir à une telle atteinte. Il pourrait en aller ainsi de l’utilisateur d’un robot de sécurité ou d’un robot de soins. Mais comme le consentement est personnel, il faudrait obtenir celui de toutes les personnes dont la vie privée pourrait être surprise par la machine, qu’il s’agisse de la famille ou des tiers.

57Toutefois, la création d’un véritable principe roboéthique aurait pour avantage de préciser l’étendue de la protection de la personne, de clarifier les sanctions envisagées, et d’insister sur le caractère personnel du consentement du titulaire du droit à la vie privée. Avec le développement de la robotique d’assistance aux personnes à court terme, il faudra insister avec force sur le fait que l’auteur du consentement ne devra pas être un membre de la famille, mais la personne assistée par le robot [98]. De même, il ne serait pas tolérable que le robot donne en permanence une vue directe sur les activités de la personne, même pour les membres de la famille. Dans cette occurrence, la mise en place d’un protocole, destiné à avertir l’intéressé qu’un tiers souhaite pénétrer son intimité par le biais du robot, serait indispensable [99]. Enfin, à l’image des voitures autonomes, le développement d’une infrastructure entièrement connectée pourrait remettre en cause la vie privée des utilisateurs. Il devrait alors s’opérer une mise en balance entre la protection de la vie privée de la personne et la sécurité de l’ensemble des bénéficiaires des services.

5845. Le principe roboéthique de la maîtrise des données à caractère personnel exploitées par le robot. Les données à caractère personnel, c’est-à-dire les données qui identifient ou permettent l’identification d’une personne, tombent sous le coup de la directive 95/46/CE du 24 octobre 1995 [100], abrogée par le règlement général 2016/679 du 27 avril 2016 [101], applicable au 25 mai 2048, et de la loi « Informatique et libertés » modifiée [102]. Or, les robots, comme les voitures autonomes, les drones ou les robots d’assistance aux personnes, seront amenés à collecter des données à caractère personnel, notamment par le biais de leurs capteurs, qu’ils pourront même échanger, parfois de manière imperceptible. Certains robots traiteront même des données sensibles, comme les données médicales. Le principe roboéthique de la maîtrise des données à caractère personnel exploitées par le robot qui devrait être entériné par le législateur devrait insister sur la phase de conception du robot – et spécialement sur le fait que ce dernier devrait être conçu pour limiter la collecte des données –, mais également sur celle de son utilisation. De même, l’utilisateur et le bénéficiaire du robot devraient toujours être en mesure d’interdire à la machine de procéder à la collecte ou au traitement des données à caractère personnel. Il conviendra de prêter une attention soutenue au consentement, qui devra être soigneusement encadré afin de s’assurer qu’il ne sera pas réduit à une simple formalité au moment de l’acquisition de la machine, mais fera l’objet d’une information adéquate.

5946. Le principe roboéthique de l’égalité d’accès aux progrès de la robotique. Le coût des robots pourrait interdire à un grand nombre de personnes d’en faire l’acquisition. Si cette question n’est pas essentielle pour certaines formes robotiques, comme le robot tondeuse ou le drone, elle s’avère parfois vitale en robotique d’assistance aux personnes ou dans le domaine des prothèses bioniques. Or, l’accès aux bienfaits des technologies, qui repose sur la solidarité, l’égalité et l’équité, est protégée en droit supranational, notamment par la Convention des Nations Unies relative aux droits des personnes handicapées du 13 décembre 2006 (art. 3, e, pour l’égalité des chances), la Déclaration universelle sur la bioéthique et les droits de l’homme (not., art. 10) ou encore la Charte des droits fondamentaux (art. 20). En France, l’art. L. 114-1 du Code de l’action sociale et des familles affirme que « toute personne handicapée a droit à la solidarité de l’ensemble de la collectivité nationale, qui lui garantit, en vertu de cette obligation, l’accès aux droits fondamentaux reconnus à tous les citoyens ainsi que le plein exercice de sa citoyenneté. L’État est garant de l’égalité de traitement des personnes handicapées sur l’ensemble du territoire et définit des objectifs pluriannuels d’actions ». Toutefois, le principe roboéthique de l’égalité d’accès aux progrès de la robotique ne pourrait être entériné par le législateur sans qu’il en ait examiné les conséquences sociopolitiques et économiques. Le financement de cet accès égalitaire imposera de réfléchir aux solutions telles que l’effort national, l’assurance, ou encore les mesures fiscales.

2 – Les principes roboéthiques imposant l’intervention du législateur pour être efficaces

6047. Les développements de la robotique révèlent d’autres risques potentiels pour l’homme pour lesquels il n’existe aucune sorte de fondement juridique existant. Il en ira ainsi dans trois situations nouvelles.

6148. Le principe roboéthique de la protection de l’homme contre les risques d’instrumentalisation par le robot. En Occident, l’imprégnation judéo-chrétienne fait que la peur de la créature est ancrée dans le mythe du Golem et dans la littérature moderne qui en dérive. La peur du robot lui fait écho. Pour éviter le rejet des robots, préjudiciable non seule- ment au secteur de la robotique de services aux personnes, mais également aux personnes elles— mêmes, les chercheurs ont eu l’idée de déjouer les craintes en utilisant diverses techniques. Certains ont alors choisi de travailler sur les émotions [103]. La robotique émotionnelle a pour avantage de faciliter les interactions homme-machine. Il s’agit de susciter des émotions humaines en jouant sur l’aspect du robot, sur ses mimiques, sur ses bruits ou sa voix, sur les émotions qu’il affiche, etc. Ainsi, une personne âgée sera moins rétive à l’idée de s’adresser à un robot. Bien entendu, le robot ne ressent nullement les émotions qu’il exprime. Celles—ci sont simulées pour faire réagir positivement l’homme, de sorte que celui—ci court le risque d’oublier que la machine ne ressent rien. Le développement de cette empathie artificielle a déjà été constaté aux États-Unis en robotique de guerre par l’américaine Julie Carpenter, puisque des militaires s’étant liés de manière excessive avec leur robot en arrivaient à être choqués par sa destruction [104]. Aussi, l’empathie artificielle fait courir le risque que l’homme développe avec le robot des liens identiques à ceux le liant à un autre être humain [105]. Au-delà de cette hypothèse, on pourrait imaginer que des robots soient créés afin d’inciter le consommateur à un certain comportement, de sorte que l’homme serait instrumentalisé par la machine sans qu’il en prenne conscience. Ces risques étant inédits, il serait nécessaire que le législateur édifie ex nihilo le principe roboéthique de la protection de l’homme contre les risques d’instrumentalisation, afin d’éviter qu’il finisse par se confondre avec le robot [106].

6249. Le principe roboéthique imposant d’éviter la rupture du lien social en présence d’un robot. La robotique autonome aura un impact positif sur les personnes dépendantes ou âgées, qui pourront rester chez elles plutôt qu’en institution ou à l’hôpital. Cependant, ces robots pourraient avoir des conséquences néfastes sur le lien social. En effet, comme il sera moins coûteux d’avoir un robot d’assistance pour effectuer les soins plutôt qu’un aidant humain, la société risque de remplacer l’homme par la machine. Au prétexte de vivre plus indépendam-ment ou de limiter le coût des soins, l’homme pourrait finir par être totalement isolé. Cela pourrait même gagner d’autres secteurs, avec l’emploi de robots d’éducation ou de robots sexuels. Il nous apparaît essentiel d’instaurer le principe roboéthique qui imposerait d’éviter la rupture du lien social malgré la présence d’un robot [107]. Celui-ci devrait prendre deux aspects. D’une part, il conviendrait d’exiger que le robot soit un facteur favorisant l’aide à l’autonomie et à l’indépendance des personnes âgées, malades ou handicapées. D’autre part, il faudrait interdire que le robot soit substitué à toute présence humaine. À cette fin, il serait possible de faire un bilan entre la situation avant l’introduction du robot et celle qui la suivrait. Néanmoins, cela exigera du législateur une profonde réflexion sur la politique sociale qu’il souhaite mener.

6350. Le principe roboéthique de la restriction de l’accès de l’homme aux technologies augmentatives. Avec le développement des technologies robotisées offrant à l’homme la possibilité de se réparer, il serait possible de glisser doucement vers l’augmentation de l’homme qui ne chercherait plus seulement à restaurer les fonctions humaines, mais à bénéficier de qualités physiques et/ou intellectuelles qui dépasseraient les capacités naturelles. Un puissant courant transhumaniste américain, qui porte cette volonté d’augmentation, insiste sur la liberté de l’homme de pouvoir s’augmenter afin de vivre mieux et plus longtemps [108]. Les posthumanistes vont encore plus loin, puisqu’ils encouragent la fusion de l’homme avec la machine, de laquelle sortira le posthumain, ni tout à fait humain, ni tout à fait machine : le cyborg (Cybernetic organism). L’homme ancien pourrait alors être contraint de s’augmenter pour ne pas disparaître [109]. Face aux conséquences éthiques et au risque de la disparition de l’homme 1.0, il serait justifié que le législateur entérine préventivement un principe robo-éthique destiné à contenir ces dérives. Toutefois, sa tâche sera difficile, étant donné qu’il devra prendre en considération que les interdits en France seront facilement contournés par le développement du tourisme augmentatif.

6451. Deux voies complémentaires permettent de protéger l’homme face aux robots. La piste juridique révèle que les textes existants restent, en grande partie, efficaces pour préserver la santé et la sécurité malgré les évolutions de la robotique, notamment autonome. La piste éthique interroge l’homme sur les effets sociétaux et humains des progrès des technologies robotiques. L’émergence de risques protéiformes exige que le législateur s’y intéresse dès aujourd’hui. Toutefois, ces dangers ne doivent jamais faire oublier les avantages procurés par les robots. Ce ne seraient donc pas certaines formes de robots qui devraient être interdites ou autorisées, mais plutôt certains usages. En édifiant des règles éthiques en robotique, le législateur devrait toujours placer l’homme au cœur de ses réflexions, et ne pas succomber à d’autres impératifs plus matériels.


Mots-clés éditeurs : drones, protection de l'homme, robotique autonome, Robot, produits défectueux, transhumanisme, responsabilité civile

Mise en ligne 18/08/2021

https://doi.org/10.3917/apd.591.0168

Notes

  • [1]
    M. Nisard, dir., Pétrone, Apulée, Aulu-Gelle, Œuvres complètes, Paris, éd. Dubochet et compagnie « des auteurs latins », 1843, Livre X, chap. XII, p. 593.
  • [2]
    Ch. Piguet et H. Hügli, Du zéro à l’ordinateur. Une brève histoire du calcul, éd. Presses polytechniques et universitaires romandes, Lausanne, 2004, p. 31.
  • [3]
    V. D. Hunt, Understanding Robotics, San-Diego, Californie, éd. Academic Press, 1990, p. 11.
  • [4]
    J.-P. Laumond, La robotique : une récidive d’Héphaïstos, éd. Collège de France – Fayard, Les leçons inaugurales du collège de France, n° 224, 2012, p. 22.
  • [5]
    E. Dombre, M. de Mathelin et J. Troccaz, « Spécificités et état de l’art », in J. Troccaz, dir., Robotique médicale, éd. Hermès Science publications, 2012, série « Systèmes Automatisés, Traité Information, Commande et Communication », p. 29.
  • [6]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, LEH édition « Science, éthique et société », janvier 2017, nos 84 et 85, et surtout n°s 86 à 139.
  • [7]
    J.-Cl. Heudin, Les créatures artificielles. Des automates aux mondes virtuels, Paris, éd. Odile Jacob, série « Sciences », 2008, p. 115.
  • [8]
    B. Joy, « Why the future doesn’t need us », in F. Allhoff et al., dir., Nanoethics. The Ethical and Social Implications of Nanotechnology, éd. Wiley-Blackwell, 2007.
  • [9]
    Pour Stephen Hawking, « le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité. Une fois que les hommes auraient développé l’intelligence artificielle, celle-ci décollerait seule, et se redéfinirait de plus en plus vite. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés », Entretien avec R. Cellan-Jones, 2 décembre 2014, BBC [on line], http://www.bbc.com/news/technology-30299992.
  • [10]
    Décret n° 2008-1156 du 7 novembre 2008, relatif aux équipements de travail et aux équipements de protection individuelle, JORF n° 0262 du 9 novembre 2008, p. 17243, texte n° 10.
  • [11]
    Cass. crim., 20 mars 2007, n° 06-84.230, JurisData n° 2007-038579 ; JCP S, 2007, 1472.
  • [12]
    Cass. 2e civ., 4 avril 2013, n° 12-13.921, JurisData n° 2013-006109.
  • [13]
    CA Grenoble, 28 août 2012, n° 10/05308, LXB n° A4915KST.
  • [14]
    Cass. crim., 9 mai 1977, n° 76-92.599, Bull. crim. 1977, n° 164.
  • [15]
    G. Auzero et A. Charbonneau (actual.), « Travail. Santé et sécurité au travail », J.-Cl. Lois pénales spéciales, V° Travail, Fasc. 30, 2015, n° 59. – Cass. crim., 16 mars 1999, n° 97-86.048, JurisData n° 1999-001704.
  • [16]
    Directive 2007/47/CE du Parlement européen et du Conseil modifiant la directive 90/385/CEE du Conseil concernant le rapprochement des législations des États membres relatives aux dispositifs médicaux implantables actifs, la directive 93/42/CEE du Conseil relative aux dispositifs médicaux et la directive 98/8/CE concernant la mise sur le marché des produits biocides, JO n° L 247 du 21 septembre 2007, p. 21-55.
  • [17]
    J. Guiochet, G. Motet, B. Tondu et Cl. Baro, « Sécurité des systèmes de la robotique médicale », Techniques de l’ingénieur, coll. « Imagerie médicale, électronique et TIC pour la santé », réf. SE3781, 2007, p. 15.
  • [18]
    J. Lewiner, « Le dispositif médical innovant. Attractivité de la France et développement de la filière », Centre d’analyse stratégique [en ligne], Rapports et documents, octobre 2012, PDF, p. 49, http://archives.strategie.gouv.fr/cas/content/rapport-dispositif-medical-innovant.html.
  • [19]
    J.-A. Long, J.-L. Descotes, O. Skowron, J. Troccaz et al., « Utilisation de la robotique en chirurgie laparoscopique urologique : état de l’art », Prog Urol, 2006, 16, 1, p. 3 et s.
  • [20]
    J. Lewiner, préc., PDF, p. 49.
  • [21]
    Directive 2009/48/CE du Parlement européen et du Conseil du 18 juin 2009 relative à la sécurité des jouets, JOUE L 170 du 30 juin 2009, p. 1.
  • [22]
    « Guide de l’application de la Directive "Machines" 2006/42/CE », Commission Européenne Entreprises et industrie, 2e éd., juin 2010, § 90.
  • [23]
    Consid. 15, directive 2006/42/CE.
  • [24]
    Cass. crim., 6 juin 1990, pourvoi n° 89-86.002, Bull. crim. 1990, n° 230.
  • [25]
    L. Dauxerre, « Synthèse. Conditions de travail, hygiène et sécurité », J.-Cl. trav., Synthèse 110, 2017, n° 2.
  • [26]
    Cass. soc., 16 juin 2009, n° 08-41.519, JurisData n° 2009-048671.
  • [27]
    Cass., ass. plén., 24 juin 2005, n° 03-30.038, Bull. civ. 2005, AP n° 7 ; JurisData n° 2005-029149.
  • [28]
    Cass., ass. plén., 24 juin 2005, n° 03-30.038, préc. – Cass. Soc., 11 avril 2002, n° 00-16.535, Bull. civ. V, n° 127 ; JurisData n° 2002-014056.
  • [29]
    D. Everaert-Dumont, « Santé et sécurité au travail. Hygiène et sécurité. Principes généraux », J.-Cl. trav., Fasc. 20-10, 2017, n° 61.
  • [30]
    G. Auzero et A. Charbonneau (actual.), op. cit., n° 59.
  • [31]
    Mais la jurisprudence est parfois réticente à appliquer le texte, Cass. com., 4 avril 2006, n° 04-19.125, JurisData n° 2006-033159 ; Droit rural, 2006, comm. 177, obs. Th. Tauran, dans lequel la vente de la machine agricole achetée sans le certificat de conformité n’est pas annulée au motif qu’il n’existait « aucune interdiction par un quelconque organisme public d’utiliser la machine », de sorte que « la livraison de la machine sans certificat de conformité ne constituait pas un manquement suffisamment grave justifiant la résolution demandée ».
  • [32]
    S. Bourgeot et M. Blatman, « De l’obligation de sécurité de l’employeur au droit à la santé des salariés », Dr. soc. 2006, p. 653 et s.
  • [33]
    Cass. crim., 6 novembre 2007, n° 07-80.031, Bull. crim. 2007, n° 265.
  • [34]
    Cass. 1re civ., 1er octobre 2014, n° 13-16.715, JurisData n° 2014-022787.
  • [35]
    J. Dye, « Fred Taylor et consorts c/ Intuitive Surgical Inc., Superior Court of the State of Washington, Kitsap County, n° 09-2-03136-5 », Reuters, 28 mai 2013,http://newsdaily.cms.newscred.com/article/0b22a9d0957ebce2b4137eb376ad177f/intuitive-surgical-wins-case-over-robotic-surgery-system. – V. aussi, LexisNexis [on line], « Legal Newsroom, Litigation », http://www.lexisnexis.com/legalnewsroom/litigation/b/litigation-blog/archive/2013/05/24/defense-verdict-returned-in-1st-da-vinci-surgical-robot-injury-death-case.aspx.
  • [36]
    Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique, 2015/2103 (INL).
  • [37]
    Arrêté du 17 décembre 2015, relatif à la conception des aéronefs civils qui circulent sans personne à bord, aux conditions de leur emploi et aux capacités requises des personnes qui les utilisent, JORF n° 0298 du 24 décembre 2015, p. 23897, texte n° 22.
  • [38]
    Loi n° 2016-1428 du 24 octobre 2016 relative au renforcement de la sécurité de l’usage des drones civils, JORF n° 0249 du 25 octobre 2016, texte n° 1.
  • [39]
    « Guide aéromodélisme, modèles réduits et drones de loisir », Direction de la sécurité de l’Aviation civile, Direction navigabilité et opérations, éd. 1 Version 2, 10 janvier 2017, Ministère de l’Ecologie du Développement Durable et de l’Energie [en ligne], http://www.developpement-durable.gouv.fr/sites/default/files/Guide%20a%C3%A9romod%C3%A9lisme%2C%20mod%C3%A8les%20r%C3%A9duits%20et%20drones%20de%20loisir.pdf.
  • [40]
    Ord. n° 2016-131 du 10 février 2016 portant réforme du droit des contrats, JORF n° 0035 du 11 février 2016, texte n° 26.
  • [41]
    G. Viney et P. Jourdain, Les conditions de la responsabilité, éd. LGDJ, 3e éd. « Traité de droit civil », 2006, n° 773.
  • [42]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 678 et s.
  • [43]
    C. Caillé, « Responsabilité du fait des produits défectueux », Rép. Dalloz civ., 2013, n° 49.
  • [44]
    Ph. Le Tourneau, dir., Droit de la responsabilité et des contrats, éd. Dalloz, 9e éd., coll. « Action », 2012/2013, n° 8426. – J. Revel, « Produits défectueux », J.-Cl. civ., art. 1386-1 à 1386-18, Fasc. 20, 2011, n° 17. – C. Caillé, loc. cit., n° 68.
  • [45]
    J. Revel, loc. cit., n° 28.
  • [46]
    Cass. 1re civ., 5 avril 2005, n° 02-11.947, 02-12.065, Bull. civ. 2005, I, n° 173 ; JurisData n° 2005- 027915. – Cass. 1re civ., 4 février 2015, n° 13-19.781, ECLI : FR : CCASS : 2015 : C100125.
  • [47]
    G. Viney et P. Jourdain, op. cit., n° 774-1.
  • [48]
    Cass. 1re civ., 7 novembre 2006, n° 05-11.604, Bull. civ. I, n° 467 ; Contrats, conc., consom., 2007, n° 60, obs. G. Raymond.
  • [49]
    Cass. crim., 24 septembre 1997, n° 96-81.105, JurisData n° 1997-004478, pour un produit décapant dangereux ayant causé le décès de l’utilisateur.
  • [50]
    Cass. 1re civ., 7 novembre 2006, n° 05-11.604, préc.
  • [51]
    Ph. Le Tourneau, Responsabilité des vendeurs et fabricants, éd. Dalloz « Dalloz Référence », 4e éd., 2012-2013, n° 52.60.
  • [52]
    Cass. 2e civ., 3 novembre 1971, n° 70-11.609, Bull. civ. 1971, II, n° 297.
  • [53]
    Cass. 2e civ., 10 mars 1983, n° 81-13.327, Bull. civ. 1983, II, n° 76, pour une scie électrique en fonctionnement.
  • [54]
    Cass. 2e civ., 11 juin 2009, n° 08-14.287, JurisData n° 2009-048704. – Cass. 2e civ., 13 mars 2003, n° 01-12.356, Bull. civ. 2003, II, n° 65. – Cass. 2e civ., 29 mars 2001, n° 99-10.735, Bull. civ. 2001, n° 68, p. 45.
  • [55]
    Cass. 2e civ., 2 avril 1997, n° 95-16.531, Bull. civ. 1997, II, n° 109. – Cass. 3e civ., 27 janvier 1977, n° 75-13.156, Bull. civ. 1977, II, n° 50.
  • [56]
    Cass. 2e civ., 4 janvier 2006, n° 04-17.653, Resp. civ. et assur., 2006, n° 76. – Cass. 1re civ., 11 mai 1999, n° 97-16.957, JurisData n° 1999-001828 ; Contrats conc. consom. 1999, comm. 140, note L. Leveneur.
  • [57]
    Cass. ch. réun., 13 février 1930, Jand’heur c/ Les Galeries belfortaises, D. 1930, 1, p. 57, note G. Ripert.
  • [58]
    Cass. 2e civ., 15 février 1984, Bull. civ. II, n° 29, relatif à un canapé.
  • [59]
    Cass. 2e civ., 5 janvier 1956, Bouloux et veuve Lathus c/ Sté Oxygène Liquide et al., D. 1957, p. 261, note R. Rodière.
  • [60]
    CJCE, 25 avril 2002, aff. C-183/00, Mme Gonzalez Sanchez c/ Sté Medicina Asturiana, § 22, D. 2002, p. 2937, note J.-P. Pizzio ; RTD civ. 2002, p. 523, obs. P. Jourdain. – Aujourd’hui, la bouteille de gaz qui explose est susceptible de constituer un produit défectueux, Cass. 1re civ., 4 février 2015, n° 13-19.781, Gaz. pal. 2015, p. 8, note P. Oudot.
  • [61]
    Cass. ch. réun., 13 février 1930, préc.
  • [62]
    Cass. 2e civ., 16 décembre 2004, n° 03-15.938, Bull. civ. II 2004, n° 537, p. 458.
  • [63]
    Cass. 2e civ., 13 septembre 2012, n° 11-19.941, JurisData n° 2012-021121, Resp. civ. et assur., 2012, comm. 331. – Cass. 2e civ., 5 janvier 1994, n° 92-15.443, Bull. civ. II, n° 14. – Cass. 2e civ., 13 février 1991, n° 89-18.422, Bull. civ. II, n° 55.
  • [64]
    Cass. 2e civ., 1er février 1978, n° 76-14.616, Bull. civ. 1978, II, n° 30, p. 24.
  • [65]
    Cass. 2e civ., 13 mars 2003, préc. – Cass. 2e civ., 2 avril 1997, préc.
  • [66]
    S. Bertolaso, « Droit à réparation. Responsabilité du fait des choses. Gardien », J.-Cl. civ., art. 1382 à 1386, Fasc. 150-20, 2012, nos 29 et s.
  • [67]
    Cass. 2e civ., 14 juin 1995, n° 93-19.188, Bull. civ. 1995, II, n° 185.
  • [68]
    Cass. 1re civ., 9 juin 1993, nos 91-10.608 et 91-11.216, Bull. civ. I, n° 213 ; D. 1994, 80, note Dagorne-Labbe, selon lequel la responsabilité du dommage causé par le fait d’une chose est liée à l’usage et aux pouvoirs de surveillance et de contrôle qui caractérisent la garde.
  • [69]
    Ph. Le Tourneau, dir., Droit de la responsabilité et des contrats, op. cit., n° 7785.
  • [70]
    Cass. 2e civ., 5 mars 1953, D. 1953, p. 473, note R. Savatier. – V. aussi, Cass. 2e civ., 20 juin 2002, n° 00-17.081, Bull. civ. 2002, II, n° 143 ; JurisData n° 2002-014857, qui évoque les pouvoirs de commandement, de direction et d’usage.
  • [71]
    G. Marraud des Grottes, Interview de M. Delvaux, « Le rapport énumère la création d’une personnalité juridiques comme une possibilité parmi d’autres », Rev. Lamy dr. civ., mars 2017, n° 6290, p. 38.
  • [72]
    N. Nevejans, « Le robot qui voulait devenir un homme… ou le statut juridique de l’androïde », in F. Defferrard, dir., Le droit saisi par la science-fiction, éd. Mare & Martin « Libre Droit », 2016, p. 156 et s., nos 33 et s.
  • [73]
    P. Kemp, L’irremplaçable. Une éthique de la technologie, éd. Cerf, 1997, p. 44.
  • [74]
    G. Marraud des Grottes, Interview de M. Delvaux, op. cit., p. 38.
  • [75]
    Sur cette question, V. N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 854 et s., spéc., nos 861 et s.
  • [76]
    « The ethics, social, humanitarian and ecological aspects of Robotics », First International Symposium on Roboethics, 30th - 31st January, 2004, Villa Nobel, San Remo, Italie.
  • [77]
    G. Veruggio, dir., « EURON roboethics roadmap », EURON roboethics Atelier, Genoa 27 feb.- 3 march 2006, juillet 2006, PDF - 42 pages, Roboethics.org [on line], http://www.roboethics.org/atelier2006/docs/ROBOETHICS%20ROADMAP%20Rel2.1.1.pdf.
  • [78]
    Guidelines on Regulating Robotics, RoboLaw [on line], 22 septembre 2014, http://www.robolaw.eu/.
  • [79]
    « Éthique de la recherche en robotique », Rapport n° 1 de la CERNA (Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene), novembre 2014, p. 7. – Également téléchargeable sur http://cerna-ethics-allistene.org/digitalAssets/38/38704_Avis_robotique_livret.pdf.
  • [80]
    « La Corée du Sud élabore une "charte éthique des robots" », LeMonde.fr [en ligne], communiqué AFP du 7 mars 2007, http://www.lemonde.fr/international/article/2007/03/07/la-coree-du-sud-elabore-une-charte-ethique-des-robots_880397_3210.html.
  • [81]
    « Intelligent robots development and distribution promotion act », Ministry of Trade, Industry and Energy, Act n° 13744, Jan. 6, 2016.
  • [82]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 909 et s., spéc. n° 912.
  • [83]
    P. Lin, « The ethics of autonomous cars », The Atlantic [on line], October 8, 2013, > Technology,http://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360/.
  • [84]
    Sur la notion de soft law, V. not., C. Thibierge, « Le droit souple. Réflexion sur les textures du droit », RTD civ. 2003, p. 509 et s.
  • [85]
    D. Thouvenin, « Les lois n° 94-548 du 1er juillet 1994, n° 94-653 et n° 94-654 du 29 juillet 1994 ou comment construire un droit de la bioéthique », D. 1995, p. 149, n° 45.
  • [86]
    B. Feuillet-Le Mintier, Normes nationales et internationales en bioéthique, PUF « Que sais-je », 2e éd., 2004, p. 17.
  • [87]
    Loi n° 94-653 du 29 juillet 1994 relative au respect du corps humain, et loi n° 94-654 du 29 juillet 1994, relative au don et à l’utilisation des éléments et produits du corps humain, à l’assistance médicale à la procréation et au diagnostic prénatal, JORF n° 175 du 30 juillet 1994, p. 11060 et s.
  • [88]
    P. Martens, « La dignité humaine : bonne à tout faire des cours constitutionnelles », in H. Pauliat et S. Gaboriau, dir., Justice, éthique et dignité : Actes du colloque organisé à Limoges le 19 et 20 novembre 2004, éd. Pulim « Entretiens d’Aguesseau », 2006, p. 152.
  • [89]
    F. Benoît-Rohmer, « La Charte des droits fondamentaux de l’Union européenne », D. 2001, p. 1483.
  • [90]
    V., J.-R. Binet, « Protection de la personne. Le corps humain », J.-Cl. civ., art. 16 à 16-13, Fasc. 12, 2015, n° 8. – Adde, B. Mathieu, « Pour la reconnaissance de principes matriciels en matière de protection des droits fondamentaux », D. 1995, 211, qui considère que la dignité est un principe matriciel. – V. aussi, Cons. Const., déc. n° 94-343-344 DC du 27 juillet 1994, JO 30 juillet 1994, n° 11056.
  • [91]
    E. Dreyer, « Dignité de la personne », J.-Cl. communic., Fasc. 44, 2015, n° 61. – E. Dreyer, « La dignité des personnes âgées », in J.-R. Binet, dir., Droit et vieillissement de la personne, éd. Litec « Colloques et Débats », n° 21, 2008, p. 32, n° 3. – B. Mathieu, « La liberté de la recherche, droit fondamental constitutionnel et international », in M.-A. Hermitte, dir., La libertés de la recherche et ses limites. Approches juridiques, éd. Romillat « Droit et Technologies », 2001, p. 66. – B. Mathieu, « Chapitre 6. La dignité, principe fondateur du droit », in La dignité (1re partie), Un concept humaniste à l’ère du post-humain ?, Journal international de bioéthique, Vol. 21, 2010/3, p. 80, qui considère que la dignité est un droit essentiellement objectif.
  • [92]
    V., N. Nevejans, O. Pourtallier, S. Icart et J.-P. Merlet, « Les avancées en robotique d’assistance aux soins sous le prisme du droit et de l’éthique », Médecine et droit, à paraître.
  • [93]
    En ce sens, L. Favoreu et al., Droit des libertés fondamentales, éd. Dalloz, 6e éd., « Précis droit public – science politique », 2012, n° 215-1.
  • [94]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 1010 et s.
  • [95]
    Ibid., nos 1014 et s.
  • [96]
    Consid. 13, Cons. const., déc. n° 2008-562 DC du 21 février 2008, JO 26 février 2008, p. 3272, texte n° 2.
  • [97]
    J.-Ch. Saint-Pau, « Jouissance des droits civils. Droit au respect de la vie privée. Définition conceptuelle du droit subjectif », J.-Cl. civ., Art. 9, Fasc. 10, 2016, n° 48.
  • [98]
    Sur ce point, V., N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., n°s 1038 et 1039.
  • [99]
    Ibid., nos 1063 et s.
  • [100]
    Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, JOUE n° L 281 du 23 novembre 1995, p. 31-50.
  • [101]
    Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), JOUE L119, 4 mai 2016, p. 1.
  • [102]
    Loi n° 2004-801 du 6 août 2004 relative à la protection des personnes physiques à l'égard des traitements de données à caractère personnel et modifiant la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, JORF n°182 du 7 août 2004, p. 14063, texte n° 2.
  • [103]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 1266 et s.
  • [104]
    J. Carpenter, « Just Doesn’t Look Right : Exploring the impact of humanoid robot integration into Explosive Ordnance Disposal teams », in R. Luppicini, dir., Handbook of Research on Technoself : Identity in a Technological Society, Hershey, Information Science Publishing, p. 609-636.
  • [105]
    S. Tisseron, Le jour où mon robot m’aimera. Vers l’empathie artificielle, éd. Albin Michel, 2015, p. 39.
  • [106]
    N. Nevejans, Traité de droit et d’éthique de la robotique civile, op. cit., nos 1269 et s.
  • [107]
    Ibid., nos 1298 et s.
  • [108]
    § 4 de la Déclaration transhumaniste : « les transhumanistes prônent le droit moral de ceux qui le désirent, de se servir de la technologie pour accroître leurs capacités physiques, mentales ou reproductives et d’être davantage maîtres de leur propre vie. Nous souhaitons nous épanouir en transcendant nos limites biologiques actuelles. »
  • [109]
    Lire, par ex., R. Redeker et R. Moreau, « Transhumanisme : entre l’homme réparé, l’homme augmenté et l’homme enlisé dans la pauvreté, saurons-nous échapper à un remake de la concurrence mortelle entre Homo Sapiens et Néandertal ? », Atlantico [en ligne], 25 janvier 2016, http://www.atlantico.fr/decryptage/transhumanisme-entre-homme-repare-homme-augmente-et-homme-enlise-dans-pauvrete-saurons-echapper-remake-concurrence-mortelle-2553882.html?yahoo=1.
bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Avec le soutien de

Retrouvez Cairn.info sur

18.97.9.169

Accès institutions

Rechercher

Toutes les institutions