Notes
-
[1]
Ce concept introduit par Charles Goodwin se réfère ici à un ensemble d’opérations et de savoirs engagés par une communauté dans la production d’un certain « regard » sur le monde. En s’inscrivant dans la continuité de cette démarche, plusieurs études ont rendu compte de l’existence de répertoires de compétences gestuelles, langagières, techniques, en d’autres mots, de « compétences professionnelles incorporées » (Goodwin, 1994), qui guident les acteurs et structurent l’action dans un contexte de travail spécifique.
-
[2]
Terme utilisé par les radiologues rencontrés pour se référer à une séance consacrée à la lecture d’images médicales.
-
[3]
L’acquisition temporaire (par abonnement) du logiciel rend compte d’une volonté générale de certains radiologues de ce CHU d’innover pour tester les outils existants et acquérir une expertise scientifique sur l’IA. Cette volonté s’est concrétisée par le démarrage d’une collaboration entre le CHU et l’équipe de la start-up. Dès le début, des recherches visant à comparer les performances homme/machine dans l’interprétation de données spécifiques sont programmées. Les innovations d’IA nous ont semblé un moyen stratégique d’assurer au CHU une visibilité qui lui permette d’adhérer aux systèmes d’évaluation actuels. Notamment, les budgets recherche des CHU français dépendent du SIGAPS (Système d’Interrogation, de Gestion et d’Analyse des Publications Scientifiques) et sont redevables des critères quantitatifs de performance comme le nombre d’articles publiés et les facteurs d’impact des revues (Gingras et Khelfaoui, 2020).
-
[4]
Les barrettes indiquent le type de détecteurs du scanner et le nombre d’images qui peuvent être acquises par rotation du tube à rayons X autour du patient. La nouvelle génération de scanners se caractérise par une diminution importante du temps d’acquisition des images et une amélioration de leur résolution.
-
[5]
Concernant la reconfiguration des frontières professionnelles en radiologie voir : Burri (2008), Mignot (2017) et Jacques et al. (2017).
-
[6]
IAT peut détecter jusqu’à 12 anomalies.
-
[7]
Ayant travaillé au préalable avec un outil détectant des nodules, le radiologue imagine ici un outil qui pourrait automatiser la détection de certaines lésions du foie.
-
[8]
Ce verbatim concerne plutôt des données de tomodensitométrie.
-
[9]
À titre d’exemple, sont exclus des expériences : les gauchers, les femmes enceintes, les personnes suivant un traitement médicamenteux ou ayant subi certains traumatismes.
-
[10]
Dans l’image, cela se traduit par une opacité qui efface les culs de sac costo-diaphragmatiques.
-
[11]
Présence pathologique de liquide dans la cavité pleurale.
-
[12]
Il se réfère à une des anomalies détectées par le logiciel et classé ainsi.
1Parmi les innovations d’intelligence artificielle (IA) appliquées au domaine de la santé, les techniques de traitement des images médicales charrient beaucoup de promesses. En particulier, les discours sur la puissance des outils d’aide à la détection de dernière génération ont nourri, ces dernières années, une rhétorique de la rupture vers une pratique de la radiologie plus « objective » (Pesapane et al., 2018).
2Pourtant, l’avènement des outils d’aide au diagnostic comme le CADe (Computer Aided Detection) et le CADx (Computer Aided Diagnosis) n’est pas récent – leur introduction dans la pratique clinique remonte à la fin des années 1990 – et leur utilisation est répandue dans le cadre du dépistage de certaines pathologies, comme le cancer du sein. Conçu pour réduire les « erreurs » de lecture, causées par exemple par l’inattention, le logiciel signale les clichés suspects. De nombreux médecins ont intégré ces outils en routine dans leurs pratiques. Certaines recherches sociologiques (Hartswood et al., 1998 ; Rouncefield et al., 2003 ; Slack et al., 2010) ont d’ailleurs essayé de comprendre de quelle manière le CAD est intégré à l’activité de diagnostic des radiologues. Ces études font le constat, entre autres, que la connaissance des forces et des limites de la machine est un des éléments constitutifs de la « vision professionnelle » (Goodwin, 1994) [1] des radiologues.
3Bien que les radiologues soient déjà confrontés depuis plusieurs années à ce type de technologies, les discours autour d’une nouvelle génération d’outils d’aide à la détection mettent en avant une meilleure performance, acquise par l’entraînement des algorithmes au moyen de vastes bases de données, et l’intégration de méthodes plus fiables, comme le deep learning. Dès lors, l’IA serait porteuse d’une possible révolution de la radiologie et, en retour, est perçue comme une menace pour les professionnels (Dos Santos et al., 2019). Ces analyses dépendent en partie des méthodes adoptées pour mesurer les performances de ces technologies. De fait, l’efficacité des nouveaux logiciels d’aide à la détection qui commencent en France à être testés par les établissements de santé publics et privés est évaluée exclusivement à partir de la comparaison des performances de la machine avec celles du radiologue ou par l’opposition du travail du radiologue assisté par l’ordinateur à celui accompli par le radiologue seul (Kim et al., 2020 ; McKinney et al., 2020). Pourtant, cette rhétorique, qui est nourrie à la fois par les promoteurs et les détracteurs de l’IA (Kirtchik, 2019), passe outre l’analyse des contextes d’usage de ces technologies et de l’expérience de leurs utilisateurs. Pour illustrer ce constat, nous proposons une étude de cas qui porte sur un outil d’IA conçu pour assister les radiologues dans la lecture des radiographies du thorax.
4Cet article entend contribuer à une réflexion sur les limites des outils de détection face à des savoir-faire à travers lesquels la connaissance médicale est produite. De nombreux auteurs ont analysé la capacité des systèmes algorithmiques à incorporer des impératifs sociaux ou même à instituer des normes (Grosman et Reigeluth, 2019 ; Jaton, 2017) en s’intéressant par exemple à la conception de dispositifs de recommandations (Vayre et Cochoy, 2019) et de surveillance (Benbouzid, 2018 ; Ferguson, 2019 ; Van Dijck, 2014). Nous montrerons comment des normes implicites, difficilement formalisables, échappent à la classification algorithmique. Ces normes « pratiques » (Olivier de Sardan, 2010) mettent en échec l’automatisation de certaines opérations impliquées dans la reconnaissance d’une anomalie. Les évaluations existantes tendent à rendre invisible la complexité du processus d’interprétation d’une donnée d’imagerie. Selon nous, le repérage d’anomalies (visibles) n’est pas un critère suffisant pour valider l’efficacité de la technologie ; en surestimant son implication dans l’appréhension du pathologique, il ne permet pas de saisir tout un ensemble de normes qui constituent pourtant les ressorts de la prise de décision médicale. À une incapacité du logiciel à inclure un ensemble d’informations et de relations utiles au diagnostic s’ajoute une incapacité de l’humain à pénétrer le fonctionnement de la détection automatique. Nous allons décrire, dans un double mouvement, comment l’impossibilité de la machine et de l’humain à accéder à leur travail respectif entrave leur alliance.
5Notre démarche ethnographique privilégie une entrée par le travail. Nous décrivons la production de connaissances par les objets qui interviennent dans leur transmission, comme les comptes rendus. Beaucoup de travaux en sciences sociales se sont penchés sur la place de l’écriture dans différents secteurs professionnels (Blanco et Vinck, 1999 ; Denis et Pontille, 2014 ; Dodier, 1988). Dans le monde médical, en particulier, des travaux ont montré comment les documents partagés permettent la coordination des interventions (Grosjean et Lacoste, 1999) structurent la prise de décision (Berg, 1996) ou orientent la relation entre patient et personnel soignant (Guillon et Mathieu-Fritz, 2008). Néanmoins, dans le but d’analyser de quelle manière l’écrit structure la perception, nous mobilisons l’étude de ces objets pour démontrer de quelle manière ils participent à l’émergence du « visible » et accompagnent le travail de l’œil dans la définition des contours d’une anomalie. Pour nous, le compte rendu médical agit aussi, comme dans le cas des textes scientifiques, en tant que « dispositif de visualisation » (Bastide, 1985) agencé selon des contraintes locales qu’il s’agira de mettre en lumière.
6Analyser l’acte de voir par le biais des savoirs informels et de la mise en forme des observations par l’écrit nous aide à replacer la technologie dans un contexte de validation plus large, où les performances ne se réduiraient pas à la capacité d’identifier une anomalie par sa simple présence sur l’image. Certes, cela n’est pas nouveau, et nombre d’études ont notamment démontré la manière dont l’environnement matériel (Alac, 2011 ; Knorr-Cetina, 2013 ; Saunders, 2008), les interactions entre professionnels (Grasseni, 2004), les régimes de vision (Prasad, 2005) et les formes d’objectivité (Daston et Galison, 2012) orientent et stabilisent les pratiques visuelles dans diverses professions scientifiques et médicales. Mais nous voudrions démontrer comment cette conception du regard médical, dépendant du contexte dans lequel il s’exerce, explique en partie que le projet d’automatisation des détections visé par les nouvelles technologies d’IA soit mis à mal.
7Nos analyses sont issues d’une enquête socio-anthropologique qui a été conduite sur une durée de 18 mois, où nous avons suivi l’introduction d’un outil d’aide à la détection d’anomalies, pour la lecture des radiographies du thorax (que nous allons appeler désormais IAT) dans la pratique des internes en radiologie. Un premier volet de l’enquête prévoyait une immersion dans le travail des radiologues pour nous familiariser avec les pratiques locales et les contraintes spécifiques qui guident l’interprétation des images (des scanners pour la plupart). Dans un premier Centre hospitalier universitaire (CHU), où les radiologues n’utilisent pas d’outil d’aide à la détection, nous avons réalisé des entretiens semi-directifs avec une dizaine de radiologues et suivi plus étroitement trois d’entre eux de manière répétée lors de leurs « vacations » [2] (une quinzaine d’heures d’observation). Dans un deuxième CHU, où IAT a été introduit, nous avons d’abord effectué une dizaine d’entretiens semi-directifs avec les membres du service de radiologie, de différents statuts hiérarchiques, dans le but de comprendre le choix de l’acquisition du logiciel porté par la direction et les attentes générales associées à un tel projet [3]. Nous avons aussi assisté à différents moments collectifs : la mise en route du logiciel, accompagnée de rencontres ponctuelles entre la start-up qui distribue le logiciel, le staff des médecins, les manipulateurs et les responsables du système d’information ; la formation délivrée aux futurs utilisateurs. Enfin, nous avons ciblé le travail des jeunes internes confrontés aux premières utilisations de l’outil à travers l’observation d’une vingtaine d’heures de vacations et l’examen de notes que les jeunes médecins ont rédigées pour évaluer l’outil et ont échangées avec les membres de la start-up.
8Avant de procéder à l’analyse des pratiques des radiologues confrontés à l’introduction de l’outil, nous allons situer l’IA dans le contexte plus général au sein duquel le métier de radiologue évolue. Nous soulignerons notamment l’importance de la preuve visuelle dans la médecine contemporaine, le recentrage de l’expertise radiologique autour de certaines techniques d’imagerie et la dévalorisation progressive d’une partie des données dont l’interprétation est laissée aux néophytes ou à d’autres professionnels.
Radiographies, IA et frontières professionnelles
9L’outil qui fait l’objet de cette enquête est un logiciel qui propose une détection automatique pour aider l’interprétation des radiographies du thorax, qui sont lues, dans le CHU où nous avons réalisé l’enquête, par les internes de première année. Que ces données soient réservées aux radiologues les moins expérimentés est lié à la nature du contexte hospitalier. Aux urgences, les examens d’imagerie, en particulier les radiographies, sont utilisés de plus en plus pour exclure certaines affections et trier le public. Cela a entraîné le « déclassement » matériel et symbolique de la radiographie en faveur du scanner et de l’IRM notamment. Cette tendance se confirme par le constat que la lecture de la radiographie comme donnée de moins en moins spécialisée se généralise, son interprétation n’étant plus la prérogative des seuls radiologues. Les frontières qui définissent les contours de la pratique radiologique se reconfigurent alors autour d’autres techniques d’imagerie (IRM, scanner, échographie).
Historiquement, la radiologie, bah c’est les radiographies mais nous, on est de plus en plus détachés parce qu’on est de plus en plus vers l’interprétation des scanners, des IRM. En fait, c’est les médecins des services d’hospitalisation qui lisent les radiographies. (…) tous ces examens-là, en théorie, sur la réglementation, tout examen fait doit être interprété par un radiologue, en fait on n’arrive pas à respecter ça parce qu’on a trop d’examens à interpréter (radiologue).
11Les progrès techniques ont en fait surtout affecté le scanner et l’IRM, en ce qui concerne notamment la qualité des images produites. Les scanners sont passés de 16 à 64 barrettes [4] avec un gain dans la résolution des images et une amélioration de la visibilité, ce qui a introduit de nouveaux défis diagnostics. La réduction du temps des acquisitions et l’accroissement du nombre de coupes réalisées lors d’examens ne posent pas seulement les enjeux d’une meilleure visibilité, mais aussi en termes de volume d’images visionnées.
Pour faire un scanner avec 200 coupes pour couvrir le thorax, ça mettait de 5 à 7 minutes, maintenant pour faire 1 000 coupes, il faut moins d’une minute donc j’ai connu l’explosion de la quantité de données par patient ; des journées où tu vois 10 patients et tu fais 2 000 coupes à des journées où tu vois 20 patients et tu fais 4 000 coupes… tu vois 10 à 15 fois plus de données et ça, ça modifie beaucoup les choses (radiologue).
13La charge de travail due à l’augmentation des examens d’imagerie et à leur complexification explique en partie l’orientation de l’expertise en radiologie vers d’autres techniques et la progressive délégation de la lecture des radiographies à d’autres professionnels. De plus en plus, les cliniciens qui prescrivent des radiographies interprètent les images de manière autonome.
14Les radiologues expliquent le recours systématique à la radiographie aux urgences en présence de certains symptômes par la volonté de se protéger vis-à-vis de possibles actions en justice en cas d’erreur diagnostique. Pour les radiologues interrogés, beaucoup d’examens sont exclusivement justifiés par la sécurisation du métier face à une « une patientèle de plus en plus procédurière… ». Des auteurs ont souligné que le renforcement des droits des malades et des patients dans le système de santé français (Castel, 2005 ; Guillaume-Hofnung, 2003)avait des conséquences sur les professionnels de santé, qui perçoivent leur position comme fragilisée, et, dès lors, sur les pratiques médicales (Castel, 2005 : 446). Dans le cas sous étude, l’utilisation systématique de l’imagerie est en partie justifiée par l’évolution du rôle du patient qui devient ainsi un acteur dans l’orientation des pratiques, notamment en ce qui concerne la préférence pour telle ou telle autre technique diagnostique.
15L’explosion du nombre d’examens d’imagerie, l’évolution de certaines techniques comme le scanner ou l’IRM, le cadre du recours aux radiographies (utilisation de l’image pour exclure une pathologie), les changements du rôle du patient sont quelques-uns des éléments explicatifs d’un affaiblissement de la place de la radiographie dans la définition de l’identité professionnelle du radiologue et d’une reconfiguration des frontières de la pratique radiologique. Ce boundary work, notion introduite par (Gieryn, 1983) en référence au travail de démarcation entre science et non-science, rend compte de la manière dont les professionnels cherchent à réorienter leur spécialité par un processus d’inclusion-exclusion (de savoirs techniques, par exemple) et d’une différenciation expert-profane [5].
IA, tâches subalternes et gestion de flux
16Les outils de détection automatique dotés d’IA comme IAT semblent destinés à faciliter la réalisation des tâches subalternes – à savoir la gestion des données à faible valeur symbolique – qui sont endossées par des jeunes radiologues ou d’autres catégories professionnelles pour qu’elles soient autonomes ou pour qu’elles puissent effectuer un premier tri avant que les données soient éventuellement visualisées par d’autres en deuxième lecture. Les radiologues évoquent donc les professionnels qui sont maintenant chargés de lire les radiographies (par exemple, les urgentistes) comme les destinataires « idéaux » de certaines solutions d’IA. Cette remarque va dans le même sens de positions plus officielles, repérables dans des médias grand public. Pour des porte-paroles de start-up qui conçoivent des solutions d’IA pour la radiologie, les outils de détection automatique pourraient aider les « non spécialistes » d’un organe à mieux dépister ses anomalies.
La vraie vie c’est un mec de base aux urgences qui fait du thorax (…) donc c’est lui qu’il faut aider, c’est lui qu’il faut aider en compétences ! Ce n’est pas l’hyper expert, le mec qui fait de la traumato tous les jours (Chef du pôle imagerie du CHU, à propos de l’introduction d’IAT dans son service).
18Les urgentistes sont souvent mentionnés comme possibles destinataires des outils d’IA qui sont vus en ce sens comme un moyen pour les radiologues de se désengager vis-à-vis de la prise en charge de données trop nombreuses, peu valorisées au niveau de la technicité requise pour leur interprétation, avec peu d’enjeux en termes de gravité. Le but n’est donc pas, selon cette vision, d’épauler les experts mais de renforcer la confiance de professionnels habitués à gérer un flux important de données – en particulier les radiographies – pour trier les patients.
19Le haut niveau de spécialisation des radiologues des CHU explique aussi pourquoi les chefs de service considèrent les outils d’aide au diagnostic dotés d’IA comme des techniques qui viseraient moins à renforcer la confiance de l’expert qu’à venir en aide aux professionnels à qui ils attribuent une moindre maîtrise des connaissances ou la gestion d’une importante charge de travail :
Un CHU en fait c’est là où tout le monde est hyper compétent ! Donc je ne suis pas sûr que l’hyper compétent… par contre le mec hyper fatigué au quotidien, c’est peut-être là où c’est intéressant ! Et pour le plus jeune, bah, ça permet d’augmenter en compétences (chef de service de radiologie) !
21L’identification des radiologues juniors comme destinataires potentiels des outils d’aide au diagnostic est confirmée par les propos de nombreux radiologues.
Parce que, à chaque fois que vous avez un doute, vous n’allez pas voir à chaque fois votre sénior pour dire “tiens en fait est-ce que c’est normal, pas normal ?” Déjà, la machine pourrait être une espèce de mini-professeur. Ça aide le plus jeune (radiologue sénior) !
23Selon les radiologues interrogés, l’IA peut aider les jeunes à gagner en confiance et peut-être à ne pas recourir systématiquement à un examen supplémentaire. L’IA est donc vue comme une aide pour consolider l’expertise de « mauvais » radiologues pour certains, le « non spécialiste » ou le « radiologue de base » pour d’autres, tout en permettant une meilleure lecture des images dans des territoires qui seraient dépourvus de professionnels compétents. L’IA ainsi qu’elle est imaginée semble alors destinée, dans ce discours, à remplacer le radiologue plutôt dans la réalisation de tâches de moindre valeur technique et diagnostique dont ils veulent se désengager.
Le triage des radiographies par l’IA au défi des pratiques des jeunes radiologues
24Les internes sont amenés à relire des radiographies des urgences, qui ont été considérées normales par les urgentistes et qui les ont conduits à la décision de ne pas hospitaliser le patient. Ces radiographies sont relues le lendemain de cette décision par l’interne qui contacte l’urgentiste dans le cas où il n’est pas d’accord avec son interprétation. Les radiographies du thorax représentent un quart des radiographies des urgences et il n’y a que très peu de discordances entre l’avis de l’urgentiste et celui du radiologue (de l’ordre d’une radiographie sur quarante).
25L’introduction de IAT chez les internes a généré depuis le début une critique des failles techniques du logiciel. Les internes évaluent l’efficacité non pas tant au prisme de la performance technique, c’est-à-dire la capacité de la machine à détecter une anomalie, qu’au regard de la pertinence de cette détection pour la définition du pathologique. D’autres explications – qui touchent aussi bien des pratiques formelles et informelles, sociales et épistémologiques – entrent en compte dans l’évaluation de l’efficacité de la machine et dans la confiance qu’on peut lui accorder.
Définition du normal et du pathologique
26IAT vise à analyser les radiographies du thorax et propose pour chaque image un étiquetage où elles apparaissent comme étant normales ou anormales et un classement des anomalies [6] (par exemple : opacité, consolidation, fibrose, nodule, épanchement pleural…). Cette analyse donne lieu à un rapport (figure 1) et un compte rendu automatique.
Des fenêtres entourent les zones où le logiciel a identifié des anomalies
Des fenêtres entourent les zones où le logiciel a identifié des anomalies
27En termes d’aide à la détection, les anomalies des radiographies du thorax couvrent un terrain que l’IA n’arrive pas à saisir de manière précise et satisfaisante pour les internes. Au-delà des faux positifs qui amènent à la détection d’anomalies non significatives, d’autres erreurs de la machine aboutissent à une mauvaise labellisation des anomalies. En fait, une lésion visible sur l’image peut correspondre à diverses pathologies et son interprétation dépend des informations que le radiologue a à disposition. C’est par exemple le cas d’une radiographie du thorax qui présente des cavités suspectes que l’IA détecte comme étant liées à une tuberculose.
Selon la clinique tu vois… il y a quand même… la tuberculose ce n’est pas la seule étiologie qui donne des lésions excavées comme ça ; selon la clinique et les prélèvements qu’ils ont faits, il faut corréler à tout ça, mais (…) en fait si j’ai une radio comme ça et que l’urgentiste, il me dit, il est passé aux urgences, il revient de, je ne sais pas, il habite au Maroc ou dans une zone endémique où il a pu avoir la tuberculose, qu’il tousse, on a un doute sur la tuberculose, (…) je dis « faire des prélèvements » parce qu’il y a de grandes chances qu’il ait une tuberculose (interne en radiologie).
29En l’occurrence, l’historique du patient et les notes des médecins qui indiquent une hospitalisation pour pneumonie l’aident à définir les lésions autrement (une condensation dans ce cas) et à écarter la tuberculose.
30Lors de l’interprétation d’une autre radiographie, l’interne nous dit que l’image du thorax affiche un énorme volume pulmonaire. Malgré l’avis du logiciel, pour lequel il y a une absence d’anomalie, le radiologue nous explique que cela peut être un signe indirect d’un emphysème et que cela dépend d’autres informations :
Est-ce qu’il vient pour des symptômes pulmonaires et dans ce cas-là, il faudrait pousser, ou alors est-ce qu’il vient pour complètement tout autre chose et il n’a pas du tout de problème pulmonaire et si ça se trouve, c’est juste quelqu’un qui peut être aussi très grand tu vois (…) même si tu lui mets le critère distension thoracique et bah elle va tout le temps mettre anormal s’il y a une distension thoracique, mais par contre des fois c’est normal parce que la personne est physiologiquement grande et filiforme, des fois c’est anormal parce que la personne a une vraie distension thoracique d’une pathologie pulmonaire, mais ça, c’est le contexte clinique qui rentre en jeu (interne en radiologie).
32L’interne nous dit disposer des mesures du patient et avoir la possibilité de vérifier sa conformation physique, un critère qui pourrait donc être utilisé dans l’évaluation d’une distension thoracique. Dans ce cas précis, il prend en compte aussi l’âge du patient (31 ans), la fréquence de la pathologie selon les âges étant aussi un élément décisif. Ces informations aident le radiologue à interpréter l’image qui sera jugée comme non pathologique. Dans ce dernier cas, l’avis du logiciel est concordant avec celui du radiologue mais la normalité n’est pas évaluée de la même manière par la machine et le radiologue.
33Les antécédents familiaux et l’âge des patients sont des éléments qui expliquent parfois la tolérance à une anomalie ou au contraire qui justifient le recours à des examens supplémentaires et à un suivi plus régulier. De la même manière, la gravité d’une anomalie dépend des informations que le radiologue recueille lors de l’examen clinique (s’il y a lieu) et acquiert par le toucher mais aussi par le ressenti du patient.
34Les radiologues, tout particulièrement dans le cas du cancer, sont sans cesse confrontés à l’observation d’images où les lésions témoignent d’opérations chirurgicales et des traitements thérapeutiques subis par les patients. Ces lésions, qui ne sont pas reconnues par le logiciel d’IA et donnent systématiquement lieu à des faux positifs, sont pourtant très communes et le radiologue sait distinguer les artefacts dus à la présence de cicatrices ou de dispositifs médicaux (implants, pacemakers, drains…) des signes d’une éventuelle progression de la maladie. Par exemple, une prothèse du foie peut modifier la circulation et la vascularisation de l’organe en créant de fausses prises de contraste.
35La lecture automatisée d’une partie des images est donc mise à mal par la non-reconnaissance de certaines altérations des corps. D’ailleurs, lors de notre enquête, certains radiologues exprimaient une méfiance particulière quant à la capacité des outils d’IA à prendre en compte la complexité introduite par les modifications physiques dues aux interventions médicales, dont les images témoignent fréquemment :
Pour des trucs hyper simplex, tu lui dis : « je veux que tu détectes dans le noir du gras une infiltration… » il va le faire super bien… mais des trucs hyperspécialisés où on modifie tout… parce que si tu demandes de diagnostiquer un CHC (carcinome hépatocellulaire) du foie, une tumeur artérielle du foie [7] en disant : « tu mesures tout ce qui est artériel [8] dans le foie »… sauf que nous on lui aura mis du produit blanc qui va être détecté comme du rehaussement, l’artère on la lui aura ligaturée, donc le temps artériel… il n’existe plus, la machine va dire : « attends je pige pas là ! tu me demandes un temps artériel sans artère avec un foie avec du blanc dedans et de machins… je pige plus rien, je te sors tout quoi ! » (radiologue).
37Nous pouvons nous apercevoir ici à quel point la notion de « super-normalité » introduite par Anne Beaulieu (Beaulieu, 2001) caractérise la classification des anomalies par la machine. Cette notion a été employée pour décrire la sélection de sujets expérimentaux dans la recherche en neuro-imagerie, une sélection qui repose sur des critères valorisant une idée de normalité déterminée culturellement et qui exclut des traits habituellement considérés comme non-pathologiques [9]. Cette notion peut également rendre compte du fonctionnement de la détection automatique car, n’étant pas performante pour la lecture d’anomalies sur des corps modifiés par la technique, elle incarne un idéal – celui du corps « super-normal » – et écarte de fait une partie importante de patients.
38Ces exemples montrent que reconnaître une anomalie nécessite la prise en compte de multiples informations par le radiologue et illustrent comment le signe « visible » est interprété à l’aune d’une définition de la normalité qui diverge de celle qui oriente la détection automatique.
Rôle social du compte rendu
39Nous le voyons, pour le radiologue, la présence d’une anomalie ne témoigne pas forcément d’un état pathologique. La machine détecte parfois des anomalies qui, après la prise de connaissance de l’histoire du patient et selon son évaluation éclairée par l’expérience, ne sont pas considérées comme problématiques par le radiologue. Face à une image étiquetée comme pathologique par le logiciel, un interne explique :
Effectivement si je veux être très précis et très… tout décrire, il y a un émoussement des culs de sac [10], ça je ne peux pas le nier, ils sont là effectivement, c’est vrai ; après c’est juste que, il n’y a pas de franc épanchement pleural [11], est-ce que je dois notifier un émoussement ? est-ce qu’il y a un réel impact thérapeutique derrière ? ça, c’est encore un autre problème, moi spontanément je ne l’aurais pas notifié (interne en radiologie).
41Souvent le radiologue décide de taire des anomalies qu’il n’estime pas significatives. Les radiologues ne consignent pas tout ce qu’ils voient à l’écrit mais relatent les choses qu’ils considèrent essentielles à la compréhension du cas. Ils rédigent ensuite le compte-rendu en anticipant parfois les possibles réactions des destinataires. Par exemple, s’ils voient des anomalies qu’ils ne considèrent pas inquiétantes, ils ne les mentionnent pas pour ne pas alarmer le médecin prescripteur. Lors d’une autre observation, un des radiologues observe à voix haute :
Hop ! ça ne me gêne pas (il se réfère à ce qu’il voit)... Je n’en parlerai pas, c’est rien. (…) Il y avait des micronodules, mais je n’en parle pas parce qu’il n’y a rien du tout donc, ça va inquiéter les cliniciens.... On n’en parle pas, il n’y a rien (radiologue) !
43Le regard du radiologue est donc entraîné à contourner les anomalies qu’il considère sans gravité et sans rapport avec la question du clinicien :
Vous prenez des kystes rénaux… tout le monde a des kystes rénaux qui peuvent faire 2 mm, 3 cm... Mais c’est quelque chose… on ne le décrit même plus parce que de toute façon ça n’a aucune incidence, ni intérêt, ni quoi que ce soit (radiologue) !
45À l’inverse, d’autres fois, les informations incluses dans le compte rendu ne sont pas utiles à une meilleure compréhension ou prise en charge du patient, mais visent exclusivement à une mise en valeur du savoir exercé par le radiologue et à la construction du sérieux qu’il veut rendre visible par écrit. Un interne nous explique que si, d’habitude, pour une radiographie du thorax normale, il utilise un compte-rendu standard, pour les radios du rachis normales, celles-ci étant plus complexes, il décrit ce qu’il voit en détail : cette pratique « montre qu’on a regardé les points importants ». Le compte-rendu doit être d’autant plus « soigné » quand on n’a pas de contact avec le patient. L’attention au contenu mais aussi aux fautes d’orthographe, par exemple, s’explique par la valeur du compte-rendu quand celui-ci est le seul objet qui témoigne de l’acte médical. Un interne nous dit : « on ne voit pas le patient, donc ils ont que le compte-rendu… avec notre nom ». Cette trace est vue aussi comme un moyen de se protéger dans l’éventualité d’attaques à leur encontre de la part d’autres professionnels, voire des patients. C’est pour cela qu’« il y en a même qui font le compte-rendu en se disant : si un jour il y a un procès… ».
46Le compte-rendu est également le témoignage du regard « généraliste » du radiologue. Souvent, le texte ne se limite pas aux lésions qui justifient l’examen mais à tout détail que le radiologue estime utile de consigner. Cela peut concerner des choses visibles mais aussi invisibles. Comme ce cas où, ayant connaissance des circonstances dans lesquelles le patient est pris en charge – le fait notamment qu’il ait fait l’objet de violences physiques –, le radiologue explicite dans le compte-rendu la « mauvaise exploration des côtes inférieures » pour souligner une absence de visibilité complète et suggérer la possibilité de lésions non vues. Cette action dépasse largement le cadre d’une simple détection et le visible ne suffit pas à définir le normal et le pathologique.
47Le compte-rendu est une sélection d’éléments opérée par le radiologue qui répond à des savoir-faire, à la connaissance du cas et à des attentes sociales. Au moment où ils doivent dicter le compte-rendu, les radiologues sélectionnent les éléments qui ont selon eux de l’importance pour leurs destinataires (cliniciens, collègues ou patients). Dans ce sens, la détection offerte par l’IA n’est pas en adéquation avec l’interprétation du radiologue qui ne définit pas les images de normales ou pathologiques par la simple présence ou absence de lésions, mais aussi par la valeur sociale des informations qu’il entend transmettre au prescripteur de l’examen, à d’autres collègues ou au patient.
IA et apprentissage de la pratique radiologique
48Nous avons vu que les urgentistes lisent en premier les radiographies et prennent des décisions quant à la prise en charge du patient. Le jour suivant, les internes en radiologie relisent les notes des radiographies considérées normales par les urgentistes et corrigent, quand il le faut, leur avis. Les discordances peuvent donner lieu à des échanges entre le radiologue, l’urgentiste et d’autres professionnels (par exemple, les chirurgiens) qui se réunissent pour discuter de certains cas cliniques. Malgré le manque de temps et l’incapacité de maîtriser les logiciels de lecture d’images que manient habituellement les radiologues, l’urgentiste acquiert un niveau d’expertise sur le tas qui lui permet de prendre efficacement des décisions dans des situations d’urgence. En fait, si le radiologue rencontre parfois des anomalies qui n’ont pas été évoquées par l’urgentiste, celles-ci ne sont pas souvent de nature à remettre en cause la décision en faveur d’un retour au domicile du patient.
49Les notes laissées par les urgentistes sont le point de départ du processus d’interprétation des internes qui orientent leur regard en fonction des informations qu’ils ont à disposition sur le patient et d’un nombre spécifique de pathologies à éliminer. L’avis du radiologue se constitue donc dans un espace déjà balisé précédemment par l’urgentiste. La proximité (physique) avec des collègues plus anciens et la possibilité de faire appel à un sénior renforcent aussi la confiance de l’interne en cas de doute. Leur statut d’apprenant fait que la sollicitation des autres pour consolider un avis est un mode de relation normal et légitime, ce qui explique pourquoi les internes ne sont pas confrontés à des situations de doute où la machine leur serait nécessaire ou même souhaitable. Dans ce contexte, l’IA est vue comme une possible source d’interférence dans leur phase d’apprentissage, moment charnière où l’entraînement de l’œil s’opère par le visionnage intensif d’une quantité considérable de données. En cas de doute, les internes préfèrent demander à d’autres collègues ou s’appuyer sur une connaissance plus établie, telle que les définitions qu’ils puisent dans les manuels ou sur des pages Internet.
50Étant au début de leur parcours de formation, les internes montrent une volonté de se mettre à l’épreuve en s’exposant à la lecture des images sans que leur confiance soit mise à mal par les avis du logiciel :
Du coup il (le logiciel) me met le doute, tu vois, parce que, voilà, moi, spontanément, je sais qu’il n’y a rien là, mais voilà, si on me montre un carré en me disant : « il y a peut-être quelque chose de pathologique, là », est-ce que j’ai assez de certitudes et assez de connaissances et assez d’assurance pour dire contre un logiciel, est-ce que je suis meilleur que lui ou pas quoi (interne en radiologie) !
52Ajoutons que les radiologues juniors expriment la crainte, lors de sessions de formation au logiciel, que leur expertise soit pénalisée par la possibilité d’une perte de connaissance due à l’élimination d’images qui auraient été évaluées normales par la machine. En fait, comme l’outil est censé être plus performant dans l’étiquetage des images normales, qui devrait s’expliquer par une tendance à la « surdétection » par l’homme, les scientifiques des données visent, surtout dans le long terme, à orienter la confiance des utilisateurs envers les images que le logiciel a classées comme étant normales en laissant l’expertise humaine pour les données pathologiques. Mais, pour les internes, la définition de la frontière entre le normal et le pathologique est justement au cœur du processus d’apprentissage. Étant en cours d’acquisition, elle risque pour eux d’être brouillée par l’intervention de la machine.
Savoirs tacites et IA
53La manière même qu’ont les internes d’utiliser le logiciel démontre leur crainte quant à la possible perturbation introduite par la détection automatique. En fait, le fonctionnement du logiciel, qui prévoit l’ouverture du compte-rendu automatique et de la radiographie en même temps, provoque un détournement volontaire de la tête de l’interne qui cherche avec la souris à fermer la fenêtre sans regarder l’écran pour ne pas être perturbé par le résultat de la détection automatique. Ce n’est qu’ensuite qu’il regarde attentivement l’image et commence son interprétation. L’avis élaboré par l’IA est lu seulement après. Cela s’explique entre autres par la crainte d’une possible modification d’habitudes de visionnage, qui interviennent dans l’activité d’observation des radiologues. C’est ce qu’essaie d’expliquer un interne à l’ingénieur en charge du suivi des utilisateurs au CHU, pour justifier pourquoi il regarde l’avis de l’IA seulement après avoir réalisé sa propre interprétation :
Moi je sais que, et je pense qu’il y a pas mal de gens qui fonctionnent pareil, c’est que, étant donné qu’on regarde tous les radios de manière assez personnelle avec un schéma bien précis, moi je sais qu’on m’a, quand je regarde une radio de thorax je regarde d’abord ça, et puis ça, puis ça, puis ça, et si je sais qu’il y a un truc qui est anormal quand je vais l’ouvrir je vais être là, en mode « où est-ce que c’est que c’est anormal » tu vois (interne en radiologie) ?
55En effet, l’automatisation vient s’inscrire dans un processus de lecture d’image qui varie selon les individus, chaque radiologue s’appuyant, entre autres, sur des « savoirs tacites » (Collins, 1974, 2001) qui orientent leur pratique diagnostique.
56Nous avons repéré diverses fonctions de ces savoirs tacites. Par exemple, dans des cas de suivi et de détection de carcinome hépatocellulaire ou d’autres affections du foie, un des radiologues nous explique qu’il visualise toujours d’abord les poumons avant de passer au foie. Il commence « par les petites choses », parce qu’il sait que le foie va lui demander beaucoup de concentration et qu’ensuite c’est plus facile de passer rapidement sur le reste du corps. En sachant sa difficulté à se concentrer sur les organes (possiblement) le moins touchés par la maladie, il les visualise avant.
57Il y a aussi des habitudes concernant le sens du « balayage » visuel de l’image par le radiologue. L’un d’eux, par exemple, regarde les organes toujours dans le même « sens » (c’est-à-dire le plan de l’image) en visualisant « les reins en coronal » et « les os en sagittal ». Il observe aussi le même organe à plusieurs reprises mais en ciblant une zone particulière à chaque fois. Par exemple, il divise chaque poumon en deux et visionne les quatre portions de l’image séparément parce qu’il trouve difficile, en balayant du regard l’image en une seule fois, d’embrasser toute la superficie visible et d’y discerner des éventuelles anomalies.
58À travers ces normes, qui concernent à la fois l’ordre de visionnage des organes et la manière dont les organes doivent être visualisés, le radiologue distribue ses tâches à partir des ressources cognitives que le visionnage de chaque organe requiert.
59La mobilisation de savoirs tacites est également au cœur de l’utilisation des mesures par les radiologues. Ces mesures font partie intégrante du processus de reconnaissance de l’anomalie, l’œil étant entraîné à voir ce qui dépasse certaines valeurs établies. L’appréhension quantitative d’une lésion est donc une opération indispensable à l’interprétation, bien qu’elle varie en fonction du contexte clinique, de l’expérience du médecin et du type de question qui accompagne l’examen.
Là il n’y a pas de ganglion… un ganglion pathologique doit faire plus de 15 mm... Après ça dépend à quel endroit mais dans le poumon c’est plus de 15 en plein milieu, plus de 10 à cet endroit-là, et ici plus de 8… Tu vois si tu passes dessus, si tu as quelque chose de 15 mm, là, au milieu, tu es censé le voir quoi (radiologue spécialisé en imagerie abdominale).
61Les mesures permettent donc de voir un trait suspect mais peuvent aussi être écartées si le radiologue les juge trompeuses. Ainsi, certaines mesures réalisées par le radiologue sur les lésions sont omises du compte-rendu s’il juge qu’elles risquent d’être mal interprétées par un autre médecin. Par exemple, le radiologue distingue en temps réel, implicitement, les anomalies qui relèvent d’une possible évolution de la maladie et les anomalies dues aux actes médicaux subis par le patient. Le triage des informations est ici justifié par le caractère potentiellement alarmant de la taille de la tumeur, qu’il sait être due au traitement. À travers des savoirs tacites – qui s’appuient sur l’état du patient, les traitements qu’on lui a administrés et les effets de ceux-ci sur l’image – le radiologue reconsidère les signes visibles pour les analyser à l’aune des spécificités du cas.
62Ces routines, qui encadrent les visualisations et qui changent selon la pathologie examinée, la technique et la question posée par le clinicien, peuvent être plus ou moins standardisées selon la solidité de la connaissance qui accompagne le travail diagnostique. L’expérience permet d’acquérir une connaissance de la variabilité des manifestations pathologiques et d’entraîner son regard pour « voir » des anomalies significatives sur l’image. Ce lien fort entre voir et savoir, qui est manifeste dans les propos des radiologues, explique pourquoi le logiciel d’aide au diagnostic est vu comme une source de perturbations dans l’acquisition de ces routines lors des premières années d’apprentissage de la pratique radiologique. Ces routines – qui rendent compte d’un savoir informel et expérientiel – sont transmises en partie par les radiologues expérimentés. Comme le remarque Andreas Roepstorff : « l’interaction sociale crée des champs d’attention communs, qui servent à soutenir l’interprétation (…) et l’action (…). Cela suggère que la connaissance sert de background nécessaire pour voir ou, pour le dire un peu différemment, cette vue efficace (…) apparaît dans une certaine mesure conceptuelle » (Roepstorff, 2007 : 204). Dans le cas analysé, la transmission des savoirs n’est néanmoins pas mise en cause par l’automatisation, les internes préférant l’avis de l’humain à celui de la machine.
63Le logiciel d’IA qui semble mettre au défi la consolidation des savoirs tacites qui participent à la construction du regard médical pose également le problème de la responsabilité qui est engagée lors de la prise de décision. L’incapacité des algorithmes à opérer dans le contexte que l’on vient de décrire, contexte façonné à la fois par les savoir-faire, l’expérience, les conventions, entre en résonance avec l’incompréhension, humaine cette fois, du fonctionnement du logiciel. Nous avons constaté que l’impossibilité d’accéder au processus mis en œuvre par le logiciel, et donc aux étapes impliquées dans la production des résultats, rend problématique l’adoption de l’outil.
Explicabilité et responsabilité
64Dans le cas analysé ici, IAT introduit une incertitude différente qui a trait au manque d’explicabilité caractéristique des algorithmes de deep learning. Cette méthode implique un fonctionnement en « boîte noire » qui ne permet pas l’entière compréhension des processus mis en œuvre par le logiciel et donc des étapes impliquées dans la production des résultats. Ce type de phénomène a été qualifié d’« opacité épistémique » par Paul Humphreys (Humphreys, 2009). Pourtant, comme nous l’avons constaté sur nos terrains (Anichini, 2018), vu la sollicitation continue d’outils numériques – tels que les logiciels de reconstruction, de traitement et d’analyse d’images –, les chercheurs et les cliniciens sont obligés de « faire avec » cette ignorance :
Nous les radiologues, parce qu’on travaille avec des machines, et du numérique et de l’informatique, ça fait des années qu’il y a des boîtes noires donc on ne comprend pas tout hein ! (…) là, tous nos systèmes, ils sont numériques, parfois il y a des reconstructions d’images dans lesquelles je mets des algorithmes, des filtres… il y a une boîte noire hein (radiologue) !
66L’adoption de l’aide automatisée fournie par le logiciel demeure problématique du fait que les raisons qui expliquent la détection s’avèrent inaccessibles. Or, la détection met en jeu l’expertise et la responsabilité du médecin. Les internes abordent cette question en évoquant la prise de risque qui consiste à accepter une décision sans tout comprendre :
La machine vous dit « c’est ça » et puis elle vous demande de valider ça, et vous ne connaissez pas quoi ! C’est un peu ça ! C’est-à-dire qu’on tombe sur une image euh qu’on ne connaît pas, et puis elle nous dit « c’est ça ! » (interne en radiologie).
68Les raisons de certains choix d’IAT restent méconnues par les internes, notamment la différente classification d’un même « type » de lésion. On le voit dans ces extraits d’échange entre un ingénieur de la start-up et un interne qui interprète des radiographies en utilisant le logiciel en sa présence :
69 Interne : Non, mais du coup ça : “opacité” [12] , (…) c’est opacité ok, c’est bien. Tu vois, là, par contre, ce qui est bizarre, c’est qu’il n’a pas mis l’émoussement…
70 Ingénieur : Oui.
71Interne : Alors que, l’autre fois, c’était exactement la même image, c’est la même image que sur la radio d’avant, tu vois. (…)
72Interne : après, j’imagine que ce n’est pas possible mais, genre, tu vois, par exemple, ce qui serait intéressant de voir, tu vois… émoussement… quel critère algorithmique vous avez rentré pour qu’il dise émoussement, tu vois ?
73Ingénieur : Heu, alors tu entends quoi par critère…
74Interne : Qu’est-ce qu’il s’est dit, lui, dans sa tête, pour dire émoussement ou épanchement ? Parce que, tu vois, typiquement, la radio de tout à l’heure, il met épanchement, heu… quel raisonnement il a eu de manière mathématique du coup sur, plutôt… il s’est orienté vers un épanchement ou plutôt vers un émoussement ou plutôt vers un cul-de-sac pleural libre, quoi (…) Quand il parle d’épanchement, quand il parle de cardiomégalie, quand il parle de nodule, qu’est-ce qu’on lui a appris, quoi. Mais ça, malheureusement, tu n’as pas la réponse, mais moi, c’est quelque chose que j’aimerais vraiment savoir, et nous ce que je disais, cardiomégalie nous c’est un critère c’est le diamètre du cœur sur le diamètre de la cage thoracique… (…)
75Ingénieur : Oui alors ça c’est, c’est un champ de recherche nouveau, parce qu’autant les techniques de… ces algorithmes de deep learning ils sont assez puissants, ils marchent mieux que les méthodes plus anciennes, mais ils fonctionnent un peu comme des boîtes noires, c’est qu’aujourd’hui on a du mal à dire « ok, l’algo dit ça » et à expliquer pourquoi il a sorti ce diagnostic.
76L’interne essaie de remonter la chaîne des opérations qui peuvent expliquer le choix du logiciel en cherchant à repérer des « catégories » sous-jacentes, celles qu’il a acquises par la lecture des manuels. Ces catégories s’adaptent mal aux calculs du deep learning qui aboutissent à des résultats exploitant un apprentissage sur des bases de données annotées par des radiologues mais dont les multiples couches de traitements ne pourraient pas être rendues transparentes.
77Nous voyons que, quand il s’agit de la phase de détection, l’opacité qui caractérise le choix automatisé s’avère problématique en raison du sentiment d’expropriation de la décision qu’elle produit, ce qui témoigne d’une mise à mal de l’engagement de la responsabilité médicale dont chaque interprétation est porteuse.
Conclusion
78L’introduction de l’IA dans la pratique radiologique a entraîné des évaluations de son efficacité entendue comme la capacité de statuer sur la normalité d’une image par la reconnaissance d’une anomalie visible. De telles approches qui ambitionnent de rendre compte des bénéfices possibles de l’IA en postulant une rupture technologique dont elle serait responsable nous semblent sous-estimer largement les normes qui régulent l’activité diagnostique et le processus interprétatif d’une image médicale. Loin de se résumer à un constat basé sur des signes qui seraient immédiatement disponibles sur l’image et univoquement liés à une pathologie, les « cibles » visibles surgissent au fur et à mesure en fonction des informations et des savoirs dont les radiologues disposent. L’interprétation ne se limitant pas – ou, du moins, pas toujours – à l’appréciation de la présence ou de l’absence d’une lésion, d’autres facteurs rentrent en jeu dans la production d’un avis.
79La définition d’une anomalie par le radiologue se fait à travers la mobilisation du contexte clinique et d’informations qui relèvent du ressenti du patient, acquises par le touché, issues de savoirs acquis sur le tas… Ces différents éléments concourent à déterminer le caractère suspect ou pathologique d’une lésion et orientent le compte-rendu. Nous avons vu que la rédaction de ce dernier remplit plusieurs fonctions. Il constitue une pratique d’apprentissage (la description minutieuse permet de consolider le savoir des jeunes radiologues), de construction de la réputation, de transmission d’informations entre différents acteurs (entre radiologue et prescripteur, entre radiologue et patient) et de protection légale (contre d’éventuels recours du patient). L’acte d’exclure ou d’inclure des informations du compte-rendu illustre non pas simplement la valeur médicale et sociale du compte-rendu mais aussi son rôle dans l’émergence des anomalies et dans la construction du regard des radiologues. Cela explique en partie la difficulté à adhérer à un avis exclusivement automatisé.
80L’acquisition de savoirs et savoir-faire semble aussi mise à mal par l’utilisation du logiciel d’aide à la détection, en particulier quand celle-ci intervient lors de l’internat, au début du processus d’apprentissage de la pratique radiologique. Notre cas montre un écart entre les destinataires « idéaux », visés par l’IA appliquée à l’aide à la détection, et les destinataires « réels ». Son utilisation se heurte aux contraintes structurant leur travail quotidien. En fait, l’entraînement du regard passe par la consolidation des routines et des stratégies de visualisation spécifiques. Ces pratiques informelles, variables et implicites, sont les cibles potentielles de l’IA car elles sont jugées trop « subjectives » (Sardanelli et Di Leo, 2009) ; notre étude montre qu’elles sont pourtant essentielles, car elles permettent de contourner des écueils qui guettent le radiologue (comme la fatigue) et d’atteindre ainsi une vue efficace.
81Nous avons aussi abordé la question de l’explicabilité des détections et en particulier l’impossibilité pour le radiologue d’évaluer les raisons du choix proposé par la machine. Quand il s’agit de la phase de détection, le manque de transparence entraîne un problème d’acceptabilité, la prise de décision éclairée étant indispensable à l’engagement de la responsabilité médicale et de la consolidation de l’identité professionnelle. De plus, l’opacité et le caractère unilatéral (puisque l’accès aux explications est en partie nié aux radiologues) des détections mettent à mal la dimension dialectique du travail des radiologues quand ils sont confrontés à des situations d’incertitude.
82Le cas de la radiologie, où la vision est guidée à la fois par des connaissances stabilisées collectivement et des pratiques « tacites » acquises sur le tas, illustre de façon exemplaire les problèmes posés par les technologies qui visent à standardiser le travail médical. Mais cela s’insère aussi dans une réflexion plus large, autour de l’impossibilité des algorithmes à inclure (tous) les impératifs qui animent les agissements humains en raison de leur nature et de leur évolution perpétuelle. Notamment, en accord avec Collins selon lequel « les règles ne contiennent pas les règles de leur propre application » (Collins, 2019 : 167), nous avons vu comment des savoirs informels et incorporés façonnent la manière d’appréhender le visible, de le classer et de lui donner du sens. Si l’élan universaliste des technologies d’IA rend opaque la variabilité des contextes locaux, une approche qualitative nous semble alors essentielle pour saisir ce qui échappe à une simple comparaison des performances homme/machine, car une même détection peut répondre, comme on l’a vu, à différentes normes sociales et techniques.
Liens d’intérêts
83Les auteurs déclarent ne pas avoir de lien d’intérêt en rapport avec cet article.
Bibliographie
Références bibliographiques
- Alac, 2011. Alac M., 2011. Handling digital brains : A laboratory study of multimodal semiotic interaction in the age of computers. Cambridge, MIT Press..
- Anichini, 2018. Anichini G., 2018. La fabrique du cerveau : les dessous d’un laboratoire de neuro-imagerie. Paris, Éditions Matériologiques..
- Bastide, 1985. Bastide F., 1985. Iconographie des textes scientifiques. Principes d’analyse. Culture technique, 14, 133-151..
- Beaulieu, 2001. Beaulieu A., 2001. Voxels in the brain: Neuroscience, informatics and changing notions of objectivity. Social Studies of Science 31(5), 635-680. [https://doi.org/10.1177/030631201031005001]..
- Benbouzid, 2018. Benbouzid B., 2018. Quand prédire, c’est gérer : La police prédictive aux États-Unis. Réseaux (211), 221-256. [https://doi.org/10.3917/res.211.0221]..
- Berg, 1996. Berg M., 1996. Practices of reading and writing : The constitutive role of the patient record in medical work. Sociology of health & illness 18(4), 499-524. [https://doi.org/10.1111/1467-9566.ep10939100]..
- Blanco et Vinck, 1999. Blanco E., Vinck D., 1999. Les brouillons. Révélateurs et médiateurs de la conception. In Vinck D. (ed.) Ingénieurs au quotidien. Ethnographie de l’activité de conception et d’innovation. Grenoble, PUG, 181-201..
- Burri, 2008. Burri R.V., 2008. Doing distinctions : Boundary work and symbolic capital in radiology. Social Studies of Science 38(1), 35-62. [https://doi.org/10.1177/0306312707082021]..
- Castel, 2005. Castel P., 2005. Le médecin, son patient et ses pairs. Revue française de sociologie 46(3), 443-467. [https://doi.org/10.3917/rfs.463.0443]..
- Collins, 1974. Collins H., 1974. The TEA set: Tacit knowledge and scientific networks. Science studies 4(2), 165-185. [https://doi.org/10.1177%2F030631277400400203]..
- Collins, 2001. Collins H., 2001. Tacit knowledge, trust and the Q of sapphire. Social studies of science 31(1), 71-85. [https://doi.org/10.1177/030631201031001004]..
- Collins, 2019. Collins H., 2019. Sociologie méta-appliquée et intelligence artificielle. Zilsel 5(1), 161-173. [https://doi.org/10.3917/zil.005.0161]..
- Daston et Galison, 2012. Daston L., Galison P.L., 2012. Objectivité. Dijon, Les Presses du réel..
- Denis et Pontille, 2014. Denis J., Pontille D., 2014. Une écriture entre ordre et désordre : Le relevé de maintenance comme description normative. Sociologie du travail 56(1), 83-102. [https://doi.org/10.4000/sdt.4937]..
- Dodier, 1988. Dodier N., 1988. Les actes de l’inspection du travail en matière de sécurité : La place du droit dans la justification des relevés d’infraction. Sciences sociales et santé 6(1), 7-28. [https://doi.org/10.3406/sosan.1988.1082]..
- Dos Santos et al., 2019. Dos Santos D.P., et al., 2019. Medical students’ attitude towards artificial intelligence : A multicentre survey. European radiology 29(4), 1640-1646. [https://doi.org/10.1007/s00330-018-5601-1]..
- Ferguson, 2019. Ferguson A.G., 2019. The rise of big data policing: Surveillance, race, and the future of law enforcement. New York, New York University Press..
- Gieryn, 1983. Gieryn T.F., 1983. Boundary-work and the demarcation of science from non-science : Strains and interests in professional ideologies of scientists. American sociological review 48(6), 781-795. [https://doi.org/10.2307/2095325]..
- Gingras et Khelfaoui, 2020. Gingras Y., Khelfaoui M., 2020. L’effet SIGAPS : La recherche médicale française sous l’emprise de l’évaluation comptable. Note de recherche, CIRST. [https://www.ost.uqam.ca/publications/leffet-sigaps-la-recherche-medicale-francaise-sous-lemprise-de-levaluation-comptable/]..
- Goodwin, 1994. Goodwin C., 1994. Professional vision. American anthropologist 96(3), 606-633. [https://doi.org/10.1525/aa.1994.96.3.02a00100]..
- Grasseni, 2004. Grasseni C., 2004. Skilled vision. An apprenticeship in breeding aesthetics. Social Anthropology 12(1), 41-55. [https://doi.org/10.1017/S0964028204000035]..
- Grosjean et Lacoste, 1999. Grosjean M., Lacoste M., 1999. Communication et intelligence collective. Paris, Presses Universitaires de France..
- Grosman et Reigeluth, 2019. Grosman J., Reigeluth T., 2019. Perspectives on algorithmic normativities: Engineers, objects, activities. Big Data & Society 6(2). [https://doi.org/10.1177/2F2053951719858742]..
- Guillaume-Hofnung, 2003. Guillaume-Hofnung M., 2003. Droits des malades : Vers une démocratie sanitaire ? Paris, La Documentation française..
- Guillon et Mathieu-Fritz, 2008. Guillon A., Mathieu-Fritz A., 2008. Quand les patients hospitalisés (re) deviennent des personnes. Réseaux (151), 91-137..
- Hartswood et al., 1998. Hartswood M., Procter R., Williams L.J., 1998. Prompting in practice : How can we ensure radiologists make best use of computer-aided detection systems in screening mammography? Digital Mammography, 363-370. [https://doi.org/10.1007/978-94-011-5318-8_59]..
- Humphreys, 2009. Humphreys P., 2009. The philosophical novelty of computer simulation methods. Synthese 169(3), 615-626. [https://doi.org/10.1007/s11229-008-9435-2]..
- Jacques et al., 2017. Jacques B., Mignot L., Ragouet P., 2017. Innover aux frontières : Reconfigurations de la profession de radiologue. Rennes, Presses Universitaires de Rennes..
- Jaton, 2017. Jaton F., 2017. We get the algorithms of our ground truths: Designing referential databases in digital image processing. Social Studies of Science 47(6), 811-840. [https://doi.org/10.1177%2F0306312717730428]..
- Kim et al., 2020. Kim H.-E., et al., 2020. Changes in cancer detection and false-positive recall in mammography using artificial intelligence: A retrospective, multireader study. The Lancet Digital Health 2(3), 138-148. [https://doi.org/10.1016/S2589-7500(20)30003-0 ]..
- Kirtchik, 2019. Kirtchik O., 2019. STS et Intelligence Artificielle : une rencontre manquée ? Zilsel 5(1), 149-160. [https://doi.org/10.3917/zil.005.0149]..
- Knorr-Cetina, 2013. Knorr-Cetina K.D., 2013. The manufacture of knowledge : An essay on the constructivist and contextual nature of science. Oxford (England), Elmsford (New York), Pergamon Press..
- McKinney et al., 2020. McKinney S.M., et al., 2020. International evaluation of an AI system for breast cancer screening. Nature 577(7788), 89-94. [https://doi.org/10.1038/s41586-019-1799-6]..
- Mignot, 2017. Mignot L., 2017. Sociogenèse d’une spécialité médicale : Le cas de radiologie interventionnelle. Thèse de doctorat de sociologie, Université de Bordeaux..
- Olivier de Sardan, 2010. Olivier de Sardan J.-P., 2010. Développement, modes de gouvernance et normes pratiques (une approche socio-anthropologique). Canadian Journal of Development Studies/Revue canadienne d’études du développement 31(1-2), 5-20. [https://doi.org/10.1080/02255189.2010.9669327]..
- Pesapane et al., 2018. Pesapane F., Codari M., Sardanelli F., 2018. Artificial intelligence in medical imaging: Threat or opportunity? Radiologists again at the forefront of innovation in medicine. European Radiology Experimental 2(1), 35. [https://doi.org/10.1186/s41747-018-0061-6]..
- Prasad, 2005. Prasad A., 2005. Making images/making bodies: Visibilizing and disciplining through magnetic resonance imaging (MRI). Science, Technology, & Human Values 30(2), 291-316. [https://doi.org/10.1177%2F0162243904271758]..
- Roepstorff, 2007. Roepstorff A., 2007. Navigating the brainscape: When knowing becomes seeing. In Grasseni C. (ed.) Skilled visions: Between apprenticeship and standards. Oxford, New York, Berghahn Books, 191-207..
- Rouncefield et al., 2003. Rouncefield M., Hartswood M., Procter R., Slack R., Voss A., 2003. « Reparing » the Machine : A Case Study of Evaluating Computer Aided Detection Tools in Breast Screening. Proceedings of the Eighth European Conference on Computer Supported Cooperative Work 14-18 September 2003, Helsinki, 375-394. [http://dx.doi.org/10.1007/978-94-010-0068-0_20]..
- Sardanelli et Di Leo, 2009. Sardanelli F., Di Leo G., 2009. Reproducibility: Intraobserver and interobserver variability. Biostatistics for radiologists. In Sardanelli F., Di Leo G. (eds) Biostatistics for Radiologists. Milano, Springer, 125-140. [https://doi.org/10.1007/978-88-470-1133-5_8]..
- Saunders, 2008. Saunders B.F., 2008. CT Suite: The Work of Diagnosis in the Age of Noninvasive Cutting. Durham, Duke University Press..
- Slack et al., 2010. Slack R.S., Procter R., Hartswood M., Voss A., Rouncefield M., 2010. Suspicious Minds? In Büscher M., Goodwin D., Mesman J. (eds.), Ethnographies of Diagnostic Work. Dimensions of Transformative Practice. Londres, Palgrave Macmillan, 227-244. [https://doi.org/10.1057/9780230296930_13]..
- Van Dijck, 2014. Van Dijck J., 2014. Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. Surveillance & society 12(2), 197-208. [https://doi.org/10.24908/ss.v12i2.4776]..
- Vayre et Cochoy, 2019. Vayre J.-S., Cochoy F., 2019. L’intelligence artificielle des marchés : comment les systèmes de recommandation modélisent et mobilisent les consommateurs. Les Etudes Sociales (169), 177-201. [https://doi.org/10.3917/etsoc.169.0177]..
Mots-clés éditeurs : radiologie, intelligence artificielle, imagerie médicale, formation médicale, pratiques médicales
Mise en ligne 16/06/2021
https://doi.org/10.1684/sss.2021.0200Notes
-
[1]
Ce concept introduit par Charles Goodwin se réfère ici à un ensemble d’opérations et de savoirs engagés par une communauté dans la production d’un certain « regard » sur le monde. En s’inscrivant dans la continuité de cette démarche, plusieurs études ont rendu compte de l’existence de répertoires de compétences gestuelles, langagières, techniques, en d’autres mots, de « compétences professionnelles incorporées » (Goodwin, 1994), qui guident les acteurs et structurent l’action dans un contexte de travail spécifique.
-
[2]
Terme utilisé par les radiologues rencontrés pour se référer à une séance consacrée à la lecture d’images médicales.
-
[3]
L’acquisition temporaire (par abonnement) du logiciel rend compte d’une volonté générale de certains radiologues de ce CHU d’innover pour tester les outils existants et acquérir une expertise scientifique sur l’IA. Cette volonté s’est concrétisée par le démarrage d’une collaboration entre le CHU et l’équipe de la start-up. Dès le début, des recherches visant à comparer les performances homme/machine dans l’interprétation de données spécifiques sont programmées. Les innovations d’IA nous ont semblé un moyen stratégique d’assurer au CHU une visibilité qui lui permette d’adhérer aux systèmes d’évaluation actuels. Notamment, les budgets recherche des CHU français dépendent du SIGAPS (Système d’Interrogation, de Gestion et d’Analyse des Publications Scientifiques) et sont redevables des critères quantitatifs de performance comme le nombre d’articles publiés et les facteurs d’impact des revues (Gingras et Khelfaoui, 2020).
-
[4]
Les barrettes indiquent le type de détecteurs du scanner et le nombre d’images qui peuvent être acquises par rotation du tube à rayons X autour du patient. La nouvelle génération de scanners se caractérise par une diminution importante du temps d’acquisition des images et une amélioration de leur résolution.
-
[5]
Concernant la reconfiguration des frontières professionnelles en radiologie voir : Burri (2008), Mignot (2017) et Jacques et al. (2017).
-
[6]
IAT peut détecter jusqu’à 12 anomalies.
-
[7]
Ayant travaillé au préalable avec un outil détectant des nodules, le radiologue imagine ici un outil qui pourrait automatiser la détection de certaines lésions du foie.
-
[8]
Ce verbatim concerne plutôt des données de tomodensitométrie.
-
[9]
À titre d’exemple, sont exclus des expériences : les gauchers, les femmes enceintes, les personnes suivant un traitement médicamenteux ou ayant subi certains traumatismes.
-
[10]
Dans l’image, cela se traduit par une opacité qui efface les culs de sac costo-diaphragmatiques.
-
[11]
Présence pathologique de liquide dans la cavité pleurale.
-
[12]
Il se réfère à une des anomalies détectées par le logiciel et classé ainsi.