Notes
-
[1]
Ce texte reprend l’intervention orale, rapport de synthèse du colloque « Intelligence artificielle et santé ».
-
[2]
L. Grynbaum, Professeur à l’Université Paris Descartes, Sorbonne Paris Cité, membre de l’Institut Droit et Santé, Inserm UMR S 1145, assurait la Présidence du colloque « Intelligence artificielle et santé » qui s’est tenu le 7 juin 2017.
-
[3]
A. Laude, Professeur à l’Université Paris Descartes, Sorbonne Paris Cité, codirecteur de l’Institut Droit et Santé, Inserm UMR S 1145, a tenu les propos introductifs du colloque « Intelligence artificielle et santé » qui s’est tenu le 7 juin 2017.
- [4]
- [5]
-
[6]
V. Rapport France IA, mars 2016, partie enjeux juridiques.
-
[7]
IBM I et II, OEB, Ch. des recours techniques : IBM I, T 1173/97 du 1/7/1998 ; IBM II, T 935/97 du 4/2/1999.
-
[8]
A. Set-Aghayan, Consultant Lifescience & Watson Health (IBM), est intervenu sur « Applications concrètes » lors du colloque « Intelligence artificielle et santé » qui s’est tenu le 7 juin 2017.
-
[9]
J. Lucas, , Vice président du Conseil national de l’Ordre des médecins et Délégué Général au Numérique, est intervenu sur « Le point de vue des médecins » lors du colloque « Intelligence artificielle et santé » qui s’est tenu le 7 juin 2017.
-
[10]
V. la revendication d’une « démocratie sanitaire » (rééquilibrage de la relation sous l’angle des droits, v. charte du patient hospitalisé…) et la création récente de l’Institut pour la démocratie sanitaire (IPDS).
-
[11]
https://www.pwc.fr/fr/espace-presse/communiques-de-presse/2017/avril/intelligence-artificielle-et-robotique-dans-la-sante.html - étude du cabinet d’audit PwX : « What doctor ? Why AI and robotics will define New Health ».
1 Je voudrais d’abord remercier les responsables scientifiques de ce beau colloque, Caroline Le Goffic et aussi Clémentine Lequillerier, pour leur amicale invitation. Il me revient la difficile tâche de conclure cette matinée alors que la faim qui menace nos estomacs, signe de bonne santé et de bonne intelligence entre nos besoins et notre cerveau, n’est de toute évidence pas artificielle. C’est cela aussi le « plaisir de vivre », comme l’a relevé Luc Grynbaum [2]. Je tenterai donc d’être brève pour éviter de vous faire souffrir davantage.
2 Le numérique a investi notre société, notre économie ; l’intelligence artificielle (IA) en est une des dernières manifestations, sans doute la plus prégnante. Le droit est naturellement mis à l’épreuve par cette expérience disruptive. Le droit de la santé n’échappe pas au phénomène. Aussi les pratiques médicales ont-elles intégré l’IA. On dit d’ailleurs que l’ère est à la « médecine des 5 P » : prédictive, préventive, personnalisée, participative et de précision, médecine qui intéresse toutes les parties prenantes de l’écosystème santé, comme l’a rappelé Grégoire Loiseau : assureurs et mutuelles, assurance-maladie, pharmacies, professionnels de santé, hôpitaux et établissements de soins, patients, mais aussi entreprises productrices d’IA. Dans ces conditions, votre médecin sera-t-il, demain, un robot ? La question, reprise d’un titre d’article de journal, ne vise évidemment qu’à provoquer. L’IA se prête aux fantasmes – celui de l’alchimie, comme l’a relevé Didier Valette –, aux discours catastrophistes, ceux d’une humanité reléguée par la machine, voire du transhumanisme. Si le droit se doit d’éviter les excès, il ne peut ignorer les évolutions. Alors dans quelle mesure l’IA redessine-t-elle le domaine de la santé et du droit applicable ? Ce qui est certain, c’est que le droit devra s’adapter. La STOA (Scientific Foresight Unit) du Parlement européen a d’ailleurs, dans une étude de juin 2016, Ethical Aspects of Cyber-Physical Systems, classé la santé parmi les secteurs qui devront subir cette adaptation normative.
3 Pour répondre à cette question de l’intégration en droit de l’IA médicale, permettez-moi de porter un double regard, mais qui n’a pas l’audace de l’exhaustivité, sur la relation – la corrélation – proposée, IA et santé : je m’attacherai en premier lieu à l’existence de l’IA médicale avant de m’intéresser, en second lieu, à la mise en œuvre de l’IA médicale (IAM).
I- L’existence de l’IAM
4 En premier lieu, l’existence de l’IAM conduit à en identifier les ressorts. Dans ce cadre, on peut envisager, d’une part, sa protection et, d’autre part, son fonctionnement.
A- La protection de l’IA médicale
5 Il n’a pas été spécifiquement question ici de la protection de l’IAM, car le sujet touche l’IA en général, mais Anne Laude [3], dans son introduction, l’a quand même évoquée, car le point est important : la possible protection des objets créés participe aussi à dessiner le marché de l’IA.
6 On peut en ce sens noter que des brevets sont évidemment déposés en la matière. Entre 2014 et 2016, Google a ainsi enregistré 80 brevets dans le domaine de l’IA. Cette activité de dépôt place l’entreprise en deuxième position, derrière Microsoft (103 brevets) et devant Facebook (28 brevets) [4]. Ces chiffres peuvent sembler peu élevés. Mais on peut les expliquer. En effet, la protection requise ici est celle de l’algorithme, comme l’a noté Anne Laude, et la protection de l’algorithme peut se révéler complexe.
7 On peut identifier deux cas de figure selon les modèles d’exploitation pratiqués. Dans le premier cas, la technologie d’IA repose sur des algorithmes anciens, dans le domaine public, ou soumis à un régime dit « open source ». Sur ce dernier point, il faut noter l’émergence de démarches et projets open source, comme par exemple « openIA » [5], fondé notamment par Elon Musk. L’idée est d’offrir à l’humanité les progrès et les résultats de ce centre de recherche financé. Dans le deuxième cas, certains exploitants peuvent rechercher la protection de leurs algorithmes. Mais la réservation permise par la propriété intellectuelle se révèle alors peu efficace.
8 On peut évidemment penser au droit d’auteur, ce qui suppose que l’algorithme soit intégré à un logiciel et remplisse les conditions d’accès à la protection, notamment l’originalité. Le système est cependant peu satisfaisant dans la mesure où cela n’empêchera pas la reprise licite de l’algorithme puisque les fonctionnalités du logiciel ne sauraient être protégées par le droit d’auteur.
9 On peut encore penser au droit des brevets qui protège les inventions. La difficulté tient ici au fait que le Code de la propriété intellectuelle exclut expressément les programmes d’ordinateur et les méthodes mathématiques du champ de la brevetabilité. Cependant, l’Office européen des brevets (OEB) affirme qu’« un brevet peut être délivré pour une invention mise en œuvre par un ordinateur qui résout un problème technique de manière non évidente » [6]. La condition est que la mise en œuvre du programme doit produire un effet technique qui dépasse les interactions physiques normales entre ordinateur et programme [7]. Ainsi, un algorithme d’IA intégré dans un logiciel lui-même intégré dans un ordinateur pourra être protégé par le droit des brevets. L’intérêt est alors que l’algorithme inclus dans la demande de brevet sera protégé au même titre que l’invention elle-même. Le défaut majeur de ce champ de protection est qu’il requiert la divulgation de l’algorithme au public (donc aux concurrents).
10 Pour toutes ces raisons, il semble qu’en pratique, le secret contractuel, plus flexible, soit une voie plus pratiquée en la matière. De lege ferenda, la violation du secret des affaires de la directive 2016/943 du 8 juin 2016 pourra sans doute aussi être sollicitée.
B- Le fonctionnement de l’IA médicale
11 S’agissant ensuite du fonctionnement de l’IA, celui-ci est assis sur la donnée. La donnée est en quelque sorte la nourriture de l’IA. Dans ce cadre, la quantité, le big data donc, est la clé du succès, car l’IA s’éduque plus qu’elle se programme. La longueur du code n’est plus un élément pertinent.
12 Là encore, deux modèles sont observés. Certains exploitants utilisent uniquement les données clients, d’autres tentent d’aller chercher la donnée et la course est rude, car les GAFA l’ont entreprise depuis un moment.
13 Ces données sont collectées au quotidien, notamment grâce aux IoT - objets connectés et dispositifs médicaux qui sont les sources d’alimentation des algorithmes prédictifs. Ago Set-Aghayan [8] (IBM Watson) a ainsi dévoilé la taille de l’univers numérique en 2020 : 44 zettaoctets ! Et il a encore indiqué qu’il existe, en termes de quantité, un doublement des données de santé tous les 73 jours, avec, on l’a vu, l’écueil de la fiabilité de ces données.
14 Sur ce point, le risque est sans doute que la médecine du big data devienne le monopole des GAFA, la maîtrise des données et donc de l’IAM échappant alors aux médecins et à leurs partenaires traditionnels.
15 Un exemple pour illustrer mon propos : le Project Baseline, lancé par Google le 19 avril dernier. Google va collecter des données médicales et comportementales de 10 000 adultes, 24h/24, pendant 4 années, avec pour objectif celui de créer une carte complète de la santé humaine. Les participants seront d’ailleurs rémunérés, ce qui provoque, selon Jacques Lucas (Vice-président du Conseil national de l’Ordre des médecins) [9], un biais dans la sélection du panel et sa fidélité dans la poursuite de l’étude.
16 Pour contrer les possibles monopoles sur les données, la loi du 26 janvier 2016 sur la modernisation de notre système de santé (« loi Touraine ») a mis en place l’ouverture des données de santé, par le biais du SNDS (Système national des données de santé, article 193), comme l’a rappelé Luc Grynbaum. A cette fin, un point d’entrée unique vers l’accès aux données de santé pour des recherches, études ou évaluations a été créé : l’INDS (Institut national des données de santé, créé par l’arrêté du 20 avril 2017), qui succède à l’Institut des données de santé, en élargissant ses missions. Cependant, différents régimes ont été prévus. Certaines données seront en open access, pendant que certaines institutions accéderont aux autres données sans restriction. Et un accès restrictif est prévu pour les institutions non concernées par ce deuxième cas. Ce système différencié suscite des contestations du fait de l’inégalité de traitement.
17 Cette approche concurrentielle de la donnée se double d’une approche en termes de protection des droits fondamentaux pour un certain type de données : les données personnelles. « L’informatique est au service de la personne », nous a rappelé Lorraine Maisnier-Boché (Juriste en droit des nouvelles technologies, Asip Santé). Je me contente ici de rappeler que le principe est le consentement préalable et l’autorisation de la CNIL. La personne doit rester au centre de la réflexion et les données n’appartiennent par principe à personne ; c’est l’extra-patrimonialité des données personnelles (même si une proposition de directive sur les contenus numériques a pu jeter le trouble sur le sujet).
18 Cette vision protectrice, dans ce monde concurrentiel, ne relève pas de l’évidence pour tous. La CNIL britannique révèle en ce sens que le National Health Service a dévoilé les données personnelles de ses patients sans leur consentement, pour le développement d’une application en partenariat avec Google. L’hôpital public britannique a signé un accord de 5 ans pour plus de 460 millions d’euros en vue de la création d’une application à destination des médecins, Streams.
19 Dernière remarque : s’agissant de la règlementation sur les données personnelles, on peut identifier une difficulté liée à l’IA et au big data et qui tient au point d’entrée de la protection : la donnée personnelle, alors que le big data intelligent est capable de réidentifier à partir de données brutes…
20 La réflexion est aussi liée à la difficulté d’anonymisation. Pour être précise, la donnée ne peut pas être complètement déconnectée de la personne, nous a expliqué Lorraine Maisnier-Boché, qui nous a aussi rappelé les autres principes de la législation qui pourraient être en contradiction avec l’IA : principe de minimisation, principe de finalité.
II- La mise en œuvre de l’IAM
21 En second lieu, portant un regard sur la mise en œuvre de l’IAM, on peut s’interroger sur l’influence de l’IA sur la relation de soins et sur la responsabilité médicale.
A- La relation de soins
22 D’abord, l’IA s’immisce incontestablement dans la relation de soins. Il faut s’en réjouir car on parle ici de vies sauvées, de maladies guéries, d’épidémies évitées… Au-delà, le numérique contribuerait à réduire l’asymétrie de savoir et de pouvoir existant entre le médecin et le patient ; l’e-santé serait un facteur d’empowerment (M. Touraine), vers plus de liberté et d’autonomie [10].
23 On ne peut cependant ignorer le risque, face aux positions dominantes des GAFA, de déplacement du pôle de l’asymétrie de savoir et de pouvoir : d’une asymétrie traditionnelle vis-à-vis du système de santé à une asymétrie vis-à-vis des grands opérateurs du numérique.
24 Cette transformation de la relation pourrait bien se doubler d’une contestation du pouvoir médical. Car acceptera-t-on, demain, de suivre le parcours de soins proposé par un cancérologue local qui annonce des chances de survie de 70 % si l’IA des GAFA promet un taux de guérison supérieur ? On a appris que Watson a détecté un cas de leucémie rare, non identifié par des médecins, grâce à sa puissance de calcul (Anne Laude en a parlé et Ago Set-Aghayan nous a fait une démonstration impressionnante sur une application oncologie). Qui entendrons-nous demain, à qui ferons-nous confiance ? Clémentine Lequillerier a évoqué cette « dépossession du savoir médical » due à une « mutation de la source du savoir ».
25 Sans doute faut-il se rassurer, car l’IA est encore pour longtemps un outil d’aide à la pratique du médecin ; comme nous l’a aussi indiqué le représentant d’IBM Watson, Ago Set-Aghayan, elle n’a pas vocation à remplacer le corps médical. En effet, la préservation de la relation médecin-patient reste importante dans la prise en charge et une étude très récente, également citée par Anne Laude, montre que les patients y restent attachés [11]. C’est aussi la question de l’acceptabilité sociale de l’IA, comme nous l’a rappelé Grégoire Loiseau.
26 Compléter l’intuition d’un médecin humain avec la précision et l’exhaustivité de l’IA : voilà la vraie révolution. « La médecine sans médecin ? » : sans doute pas pour demain… Il faudra en revanche, pour reprendre l’idée de Jacques Lucas et les mots de Clémentine Lequillerier, rendre les médecins « cyber-compatibles ».
B- La responsabilité
27 Quelle sera ensuite, et pour finir, l’influence de l’utilisation d’une IA en matière de responsabilité ? On sait que la responsabilité médicale, pour ne parler que d’elle, n’est plus contractuelle, mais légale, donc délictuelle et que c’est une responsabilité pour faute. Grégoire Loiseau considère pour sa part que l’on va continuer à stimuler l’obligation d’information du médecin et que la responsabilité médicale risque bien d’être sur-sollicitée. A suivre…
28 Et si, comme Luc Grynbaum l’a relevé, l’oncologue suit son intuition plus que ce que dit l’IA, quid de la responsabilité ? Le système ne créera-t-il pas une certaine « rigidité de la décision » ? Autre hypothèse, celle de l’autodiagnostic, grâce à la mise à disposition des patients d’une IAM, évoquée par Jacques Lucas et par Clémentine Lequillerier : qui sera responsable ?
29 La question de la responsabilité est majeure en matière d’IA, car c’est là l’un des principaux enjeux. Aussi la réflexion est-elle désormais européenne. La Résolution du Parlement du 16 février, « contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique », évoquait de manière assez prudente le sujet, même si elle prévoyait en revanche, mais pas dans ses recommandations, la création d’une personnalité-robot, comme nous l’a rappelé Grégoire Loiseau. En dernier lieu, le Comité économique et social européen, organe consultatif qui assiste le Parlement, le Conseil et la Commission, a rendu le 31 mai dernier un avis d’initiative sur « Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société », dans lequel il souligne le danger que représenterait la création d’une personnalité juridique robot en termes de responsabilité et d’imputation de cette responsabilité. Le conseil donné est sage : examiner et sans doute appliquer dans un premier temps les règles de responsabilité nationales et européennes contemporaines et réfléchir pour l’avenir. Faire l’état des lieux avant de légiférer, comme l’a approuvé Grégoire Loiseau. Car il faut rappeler que la super-intelligence ou IA forte, dont nous a parlé Clémentine Lequillerier, n’existe pas et il n’est pas certain que nous la verrons. Aussi ne faudrait-il pas que le rêve serve de base à notre législation.
30 La responsabilité renvoie enfin à l’éthique, comme l’a évoqué Grégoire Loiseau. Charte éthique, licence, code de déontologie…, les expressions se multiplient pour désigner ce droit souple, que l’on souhaiterait universel, et qui pose des objectifs de comportement responsable. La démarche n’est pas dénuée d’intérêt, mais elle ne doit pas occulter le danger de privatisation de la norme et les interrogations liées à la juridicité des règles éthiques.
31 Pour conclure, je me permettrais de citer Gérard Berry, professeur au Collège de France :
32 « Fondamentalement, l’ordinateur et l’homme sont les deux opposés les plus intégraux qui existent. L’homme est lent, peu rigoureux et très intuitif. L’ordinateur est super rapide, très rigoureux et complètement con ».
33 La santé – la vraie vie – a aussi besoin d’intuitif… Et c’est ce qui fait que l’homme restera au cœur du système. Bon appétit !
Notes
-
[1]
Ce texte reprend l’intervention orale, rapport de synthèse du colloque « Intelligence artificielle et santé ».
-
[2]
L. Grynbaum, Professeur à l’Université Paris Descartes, Sorbonne Paris Cité, membre de l’Institut Droit et Santé, Inserm UMR S 1145, assurait la Présidence du colloque « Intelligence artificielle et santé » qui s’est tenu le 7 juin 2017.
-
[3]
A. Laude, Professeur à l’Université Paris Descartes, Sorbonne Paris Cité, codirecteur de l’Institut Droit et Santé, Inserm UMR S 1145, a tenu les propos introductifs du colloque « Intelligence artificielle et santé » qui s’est tenu le 7 juin 2017.
- [4]
- [5]
-
[6]
V. Rapport France IA, mars 2016, partie enjeux juridiques.
-
[7]
IBM I et II, OEB, Ch. des recours techniques : IBM I, T 1173/97 du 1/7/1998 ; IBM II, T 935/97 du 4/2/1999.
-
[8]
A. Set-Aghayan, Consultant Lifescience & Watson Health (IBM), est intervenu sur « Applications concrètes » lors du colloque « Intelligence artificielle et santé » qui s’est tenu le 7 juin 2017.
-
[9]
J. Lucas, , Vice président du Conseil national de l’Ordre des médecins et Délégué Général au Numérique, est intervenu sur « Le point de vue des médecins » lors du colloque « Intelligence artificielle et santé » qui s’est tenu le 7 juin 2017.
-
[10]
V. la revendication d’une « démocratie sanitaire » (rééquilibrage de la relation sous l’angle des droits, v. charte du patient hospitalisé…) et la création récente de l’Institut pour la démocratie sanitaire (IPDS).
-
[11]
https://www.pwc.fr/fr/espace-presse/communiques-de-presse/2017/avril/intelligence-artificielle-et-robotique-dans-la-sante.html - étude du cabinet d’audit PwX : « What doctor ? Why AI and robotics will define New Health ».