Notes
-
[1]
« New methods must be developed for making our ignorance usable. For this there must be a radical departure from the total reliance on techniques, to the exclusion of methodological, societal or ethical considerations, that has hitherto characterized traditional “normal” science. »
-
[2]
« The sciences themselves are not homogeneous and uniform with regard to how they generate, define, communicate, and investigate nonknowledge. Thus, there exist various epistemic cultures that appear to differ not only in how they make knowledge (Knorr-Cetina, 1999) but also in how they deal with nonknowledge. »
-
[3]
« The high career stakes involved in producing definitive knowledge means that academic honey bee toxicologists would tend to make methodological choices that are more likely to show measurable “positive” effects from apparently isolatable causes. »
-
[4]
Voir Frickel & Edwards (2014).
-
[5]
« […] either directly or by making them prone to criticism from other parts of society that they “ought” to have known. »
-
[6]
« to knowledge considered too sensitive, dangerous, or taboo to produce ».
-
[7]
Il s’agit des recherches qui utilisent cette méthode et qui ont fait l’objet d’une publication.
-
[8]
Revue scientifique de neuro-imagerie.
-
[9]
Un an après, aucune démarche n’a été effectuée pour rendre publics les résultats de Jérôme, qui entre-temps a abandonné cet outil de traitement et s’est investi dans d’autres projets.
-
[10]
« Negative or contradictory data may be discussed at conferences or among colleagues, but surface more publicly only when dominant paradigms are replaced. »
-
[11]
La morphométrie est l’étude quantitative des formes. À l’ère du numérique, les chercheurs effectuent des mesures (concernant le volume, l’épaisseur ou la forme) sur les structures anatomiques issues d’images IRM et extraites à l’aide de logiciels de traitement. Jérôme est spécialiste de la morphométrie sulcale, c’est-à-dire de l’étude quantitative de la forme des sillons.
-
[12]
« […] which carry the promise of commercial or biotechnology exploitation, or those likely to be reported to the general public in the mass media. »
-
[13]
Ce terme est ici employé, à l’instar de Merton (1973 [1942]), pour désigner le(s) système(s) de valeurs au(x)quel(s) la pratique scientifique aspire.
La détermination de l’ignorance
1En 1987, Merton rappelait que plusieurs grands hommes de science comme Galilée ou Newton reconnaissaient les limites de leur entreprise face aux vastes questions qu’ils laissaient sans réponses en faisant preuve d’humilité face à l’inconnu et à l’incommensurabilité de l’univers. Mais outre une posture existentielle, l’ignorance est un outil qui oriente la production de la connaissance ; définir les questions résolues et les problèmes ouverts sont des opérations essentielles à la démarche scientifique. Dans le processus de découverte, le scientifique commence par définir sa mission en délimitant le champ des phénomènes inexplorés et les « zones d’ombre » qu’il est susceptible de réduire. Pour cette raison, l’ignorance fait l’objet elle-même d’une connaissance, elle doit en fait être pensée et décrite afin qu’elle soit progressivement « apprivoisée ». L’ignorance, de ce fait, n’est pas laissée de côté ou oubliée, elle reçoit un encadrement par le scientifique qui sonde ses profondeurs tout en la structurant. C’est pour reconnaître le caractère « ordonné » d’une certaine ignorance, que Kant la caractérise de « savante » : « Celui qui voit distinctement les limites de la connaissance, par conséquent le champ de l’ignorance, à partir d’où il commence à s’étendre, par exemple le philosophe qui aperçoit et montre à quoi se limite notre capacité de savoir relatif à la structure de l’or, faute de données requises à cet effet, est ignorant de façon technique ou savante » (Kant, 1970 [1800], p. 48). Merton a utilisé le terme de specified ignorance pour désigner le processus de définition de l’inconnu en vue de la production du savoir scientifique (Merton, 1971). Tout comme la connaissance qui est progressivement mise en forme et délimitée, les lacunes doivent être évaluées et endiguées pour amorcer la résolution d’un problème. L’on voit bien ici que l’ignorance ne se lit pas dans le « creux » de tout ce qu’on a déjà élucidé, mais elle est bien une entité autonome qui appelle à une définition et à des pratiques spécifiques. En même temps, elle est indissociable d’une réflexion sur les modalités de production du savoir car quand l’on s’intéresse à l’ignorance on touche de plus près à des questions essentielles comme le traitement de l’incertitude, la nature de résultats qui ne remontent pas à la surface, les limites et les approximations qui interviennent dans le travail scientifique. Pour illustrer le lien étroit entre connaissance et ignorance, il suffit de penser au concept de « connaissance négative » (negative knowledge) conçu par Karine Knorr-Cetina (1999) afin d’expliquer le mode opératoire de la physique des hautes énergies. C’est en fait à partir de l’identification d’un ensemble de phénomènes à éliminer (erreurs, artefacts, perturbations) que la physique délimite et étudie ses objets.
2La sociologie des sciences a commencé, depuis plusieurs années, à bâtir une réflexion autour du thème de l’inconnu à différentes échelles et selon divers points de vue. Le champ étant large, nous avons choisi de comparer deux approches qui rendent compte d’une formulation différente de la question de l’ignorance. La première atteste des manières de maîtriser l’ignorance à l’intérieur et à l’extérieur du laboratoire. Il s’agit là de réflexions sur la nécessaire inclusion de l’ignorance dans la prise de décision ou des méthodes scientifiques employées pour la « réduire ». Ce type d’ignorance découle d’une absence de savoir concernant, par exemple, les effets néfastes entraînés par l’emploi d’une technologie sur l’environnement ou la santé humaine. Dans la deuxième conception, l’ignorance fait l’objet d’une fabrication stratégique qui découle, par exemple, d’une volonté de laisser inexplorées certaines questions considérées comme trop « sensibles », ou d’un refus de rendre publiques des données car elles sont censées nuire à la carrière du scientifique. Dans ce dernier cas, l’ignorance est due à une impossibilité du public d’atteindre des connaissances rendues inaccessibles par celui/ceux qui les a/ont générées.
3Notre cas empirique se situe à l’intérieur de cette deuxième approche de l’ignorance, qui cherche à délimiter les espaces de connaissance qui sont volontairement laissés hors d’accès de certains publics. L’ignorance est alors abordée, dans ce cas, comme la conséquence du secret.
4L’exemple que nous proposons est tiré d’une enquête dans le domaine des neurosciences où nous avons observé la production de cartes du cerveau utilisées par les acteurs engagés dans la recherche fondamentale. Notre réflexion va se concentrer sur des conduites qui attestent d’une mise à l’écart d’une partie des produits de la recherche qui pourraient aller à l’encontre de la réussite professionnelle des scientifiques.
5Nous avons fait le choix d’analyser le non-partage de certaines informations sous l’angle de la question de l’ignorance et du secret pour nous intéresser à la manière dont l’invisibilisation de certains résultats rend compte de la politique de diffusion de la connaissance et des enjeux qui pèsent sur les scientifiques. Le secret, dans le sens que nous lui attribuons, est une forme d’incommunicabilité de certaines observations empiriques auxquelles le scientifique aboutit. Elle permet aux acteurs de la recherche de valoriser uniquement les résultats favorables à l’acquisition ou la confirmation de leur position professionnelle. L’ignorance est donc ici analysée comme une stratégie qui intervient dans la construction du statut du scientifique. Le chercheur est incité d’un côté au respect d’un idéal de transparence, principe fondateur des sciences (Merton, 1942) qui condamne le secret et prône la libre communication des connaissances, et de l’autre côté, il doit trier ces résultats pour répondre à un milieu compétitif où les découvertes s’apparentent de plus en plus à des biens économiques.
6La question de l’ignorance abordée au travers du processus de sélection de ce qui va être dit et de ce qu’on sait mais qu’il vaut mieux occulter ou taire permet d’appréhender les pratiques de partage et de non-partage ainsi que les normes qui les autorisent.
Faire face à l’inconnu
7La distinction entre connaissance et ignorance est problématique ; c’est ce qui ressort de l’idée de la science « post-normale » proposée par Ravetz et Funtowicz (Ravetz, 1986 ; Funtowicz & Ravetz, 1993, 1997). Dans le cadre de cette définition, quand les institutions scientifiques sont mobilisées pour participer à l’élaboration de certaines politiques, comme celles qui concernent l’environnement, elles sont obligées d’intégrer l’incertitude dans la pratique et la prise des décisions. Ce phénomène découlerait d’une prise de conscience de la complexité de la nature, mais aussi de la nécessité d’agir dans des situations où les limites du savoir détenu par la science appellent au dialogue entre plusieurs acteurs sociaux. La considération de l’ignorance est indispensable à la résolution de problèmes qui seraient propres à nos sociétés contemporaines, leur nouveauté dépend de leur étendue (ils se déploient dans un monde « global »), de leur variabilité et des risques associés aux diverses solutions technologiques envisagées (Funtowicz & Ravetz, 1997). La posture de la science doit donc changer face à l’imprévisibilité des événements, l’ampleur des risques qui leur sont associés et la partialité des informations détenues par les acteurs. Funtowicz et Ravetz utilisent l’expression « usable ignorance » pour se référer à une nouvelle relation à l’ignorance qui serait propre à la science « post-normale » :
« De nouvelles méthodes doivent être développées pour que notre ignorance soit utilisable. Pour cela, il doit y avoir une rupture radicale avec la dépendance totale de techniques et l’exclusion de considérations méthodologiques, sociales et éthiques, qui ont jusqu’ici caractérisé la science “normale” traditionnelle »
9L’ignorance est donc essentielle à l’achèvement d’une science qui abandonne le mirage d’un contrôle absolu sur les sources d’incertitude et qui s’ouvre à une approche plus systémique. Plusieurs analyses sociologiques ont appréhendé l’ignorance comme le résultat de l’intervention de l’homme sur la nature. En ce sens, l’ignorance augmente en même temps que la connaissance ; elle est alors un produit permanent de l’activité scientifique. Une réflexion plus générale a fait de l’ignorance un caractère constitutif de nos sociétés contemporaines et une conséquence de la démultiplication des risques liés aux développements technologiques (Beck, 2007 ; Luhmann, 1998 ; Krohn, 2001).
10Du côté des pratiques scientifiques mobilisées pour évaluer et délimiter l’inconnu, Stefan Boschen (2006) a comparé des modes de production de « non-connaissances » (nonknowledge) faisant appel à des registres scientifiques différents. Ici il s’agit d’une reprise de la notion de « culture épistémique » empruntée à Knorr-Cetina (1999) et qui indique le mode de production de connaissances spécifique à un contexte disciplinaire. La culture épistémique est ici étendue à la non-connaissance, ce qui amène l’auteur à parler de « scientific cultures of nonknowledge ». Pour lui :
« […] les sciences elles-mêmes ne sont pas homogènes et uniformes à l’égard de la façon dont elles génèrent, définissent, communiquent et explorent la non-connaissance. Ainsi existent diverses cultures épistémiques qui semblent différer non seulement dans la façon dont elles produisent la connaissance (Knorr-Cetina, 1999), mais aussi dans la façon dont elles font face aux non-connaissances »
12À partir de ces études de cas, Boschen distingue trois cultures épistémiques de la non-connaissance : les « control-oriented sciences » qui tendent à circonscrire l’inconnu au moyen d’expériences limitées et contrôlées ; les « complexity-oriented sciences » qui intègrent la complexité des phénomènes qu’ils étudient en étant ouvertes aux effets qui n’ont pas été anticipés ; les disciplines « single-case oriented » basées sur l’expertise professionnelle et sur des études de cas. Ces catégories ne sont pas étanches ; les scientifiques peuvent se situer à cheval entre plusieurs cultures épistémiques. Boschen démontre aussi que la « non-connaissance » est un objet négocié et variable et peut être utilisée par les scientifiques et les acteurs sociaux pour orienter les discours et des politiques autour d’une innovation. On peut se saisir des disciplines selon le type de « non-connaissance » qu’elles proposent. L’utilisation politique des résultats issus de divers horizons disciplinaires démontre comment le manque de connaissances autour d’un risque, par exemple, peut être façonné socialement. En continuité avec les recherches de Boschen, Lee Kleinman et Suryanarayan (2012) ont analysé les « formes épistémiques » qui sont adoptées pour produire des résultats scientifiques. Dans le cas de l’évaluation du lien entre la mortalité des abeilles et une nouvelle génération de pesticides, les auteurs comparent l’approche des toxicologistes et des apiculteurs Si les premiers prennent en compte des relations causales et privilégient des résultats « concluants », les seconds adhèrent à une approche systémique et aboutissent à des résultats « plausibles ». Ainsi, la « forme épistémique » des toxicologistes, qui n’intègre pas les diverses variables environnementales pouvant jouer un rôle dans la santé des abeilles, conduit à nier l’impact des pesticides sur la mort des abeilles. Ce qui est intéressant ici, c’est que le cadre de production de connaissances du laboratoire, qui implique l’ignorance de tout un ensemble de facteurs, est en partie expliqué par les intérêts qui animent la recherche scientifique académique. Des certitudes répondent plus efficacement à la « culture du résultat » et aux pressions socio-économiques :
« Les enjeux de carrière élevés engagés dans la production de connaissances définitives impliquent que les toxicologues d’abeilles auraient tendance à faire des choix méthodologiques qui sont plus susceptibles de montrer des effets “positifs” mesurables dus à des causes apparemment isolables »
14Ces raisons motivent ici des choix méthodologiques mais, on le verra, elles expliquent aussi pourquoi certaines connaissances sont gardées secrètes.
La fabrication de l’ignorance
15Jusque-là, il a été question d’un type particulier d’ignorance, qui fait référence à « ce qui reste à découvrir ». Un type assez différent d’ignorance découle d’une occultation stratégique d’éléments connus. Cette fois, les scientifiques ou leurs « porte-paroles » choisissent de garder certaines données hors de portée du public (les collègues, le reste de la communauté scientifique, la société). L’ignorance est alors telle du point de vue des possibles destinataires qui n’arrivent pas à atteindre certaines connaissances. Celles-ci, de par leur nature, ne franchissent pas la porte du laboratoire. Si la sélection des informations et des matériaux qui sont communiqués (ou pas) est une étape qui intervient toujours dans le travail scientifique, la questionner sous l’angle de l’ignorance équivaut à souligner le caractère interdit de certains résultats et du « vide » laissé par leur « disparition ». Ce vide a des conséquences en termes politiques ; il suffit de penser au cas où un manque d’informations volontairement entretenu servirait à l’acceptation et à la mise en circulation d’un « fait » scientifique ou d’une innovation.
16L’institutionnalisation de l’ignorance a fait l’objet de nombreuses études sociologiques. La position vis-à-vis de l’inconnu est souvent organisée collectivement pour devancer l’imputation de responsabilités autour de risques liés au monde financier, à l’industrie pharmaceutique, au changement climatique (MacKenzie, 2011 ; McGoey, 2010 ; van der Sluijs, 2012).
17Nous pouvons citer l’historien des sciences Robert Proctor, qui a introduit le terme d’agnotologie pour désigner la science qui s’intéresse à la production de l’ignorance et qui a analysé l’utilisation stratégique du doute par l’industrie du tabac (1995, 2012). Celle-ci oriente l’opinion publique en fragilisant les positions consensuelles autour des problèmes de santé que les scientifiques attribuent, à partir d’une accumulation de preuves, à la cigarette. Oreskes et Conway (2010) élargissent dans Merchants of Doubt ces méthodes à d’autres secteurs industriels et à d’autres enjeux contemporains majeurs comme le réchauffement climatique. À partir de contre-expertises scientifiques, le monde de l’industrie cherche, par exemple, à faire intervenir des connaissances scientifiques minoritaires qui remettent en cause les responsabilités de certains polluants dans le changement climatique. La théorie du complot est là pour démontrer la force du pouvoir de ces stratégies sur l’opinion publique. Le scepticisme devient une arme pour maintenir le statu quo de certaines organisations et institutions.
18En suivant la même perspective, Dedieu et Jouzel (2015) mettent en lumière comment les risques sanitaires liés à l’exposition de la main-d’œuvre agricole aux pesticides font l’objet d’un « obscurcissement » organisé, ce qui démontre l’ancrage institutionnel d’une gestion des informations « inconfortables ». L’ignorance est stabilisée par la mise en œuvre d’un dispositif, d’une certaine production des données scientifiques qui dépend notamment du choix d’instruments évaluatifs, et en général d’une limitation du périmètre de la connaissance [4].
19Toutes ces études convergent vers une même conclusion : l’ignorance n’est pas le simple produit d’une défaite qui entraverait la recherche de la « vérité », mais elle apparaît comme une variable fondamentale et socialement nécessaire aux institutions pour poursuivre leurs objectifs (Rayner 2012 ; McGoey 2012). Rayner a forgé l’expression de « uncomfortable knowledge » pour identifier ces informations qui peuvent mettre en péril la survie des institutions, mais dont l’omission peut tout aussi bien leur être préjudiciable « soit directement, soit en les rendant sujettes à critiques de la part d’autres parties de la société qu’ils auraient dû connaître » (Rayner, 2012, p. 111, notre traduction) [5]. Pour faire face à cette « connaissance inconfortable », l’ignorance est la première réponse et peut s’appuyer sur des mécanismes différents tels que le déni, le refus, le détournement, le déplacement (Rayner, 2012).
20Dans le cadre d’une définition de l’ignorance en termes de stratégie, nous pouvons mentionner le concept de « forbidden knowledge » proposé par Kempner, Merz et Bosk (2011) pour se référer à « une connaissance considérée trop sensible, dangereuse ou taboue » [6], qui est soumise à des enjeux de pouvoir. Les scientifiques, dans leur quotidien, font des choix sur les pistes de recherche qui méritent d’être poursuivies et celles qui doivent être abandonnées à partir des considérations sur la portée sociale et politique des données produites. Ces choix peuvent placer les scientifiques dans une situation paradoxale où le principe d’une quête désintéressée de la vérité se heurte à la pratique qui les amène à limiter leur investigation ainsi que la circulation des résultats (Kempner, Merz, & Bosk, 2011). Le concept de « connaissance interdite » renvoie, dans l’étude de Kempner et ses collaborateurs, aux contraintes qui traversent des champs de recherche controversés (engagés dans l’étude des cellules-souches, dans le clonage, dans le développement d’armes). Mais ils incluent aussi les limites que les chercheurs s’imposent pour rester à l’intérieur du paradigme dominant. Il s’agit ici d’une connaissance dont le caractère controversé dépend moins de son impact social que de son acceptation au sein de la communauté scientifique elle-même. Pour cette raison, le processus de prise en compte d’une anomalie en science est souvent long et périlleux, comme l’attestent d’ailleurs d’autres travaux de sociologie des sciences (Star, 1985 ; McGuire, 1969). Les sciences de gestion ont aussi analysé les sources de l’ignorance et le traitement que les organisations leur réservent, notamment la part que les tabous et le déni jouent dans la production du secret. Roberts (2012) souligne, dans le cadre d’une suppression volontaire de la connaissance, la tendance des individus et des organisations à nier les preuves qui contredisent les décisions collectives, à écarter la connaissance qui peut aller à l’encontre d’interdits sociaux et culturels, à refuser l’accès aux informations qui concernent leur identité. Tous ces cas de figure répondent à une construction sociale accrue (« high level of social construction »), car ils dépendent fortement de normes sociales, de politiques institutionnelles, de stratégies internes.
Pratiquer le secret dans le laboratoire
21L’ignorance qui fait l’objet de notre analyse découle également du secret comme pratique, cette fois, intérieure au laboratoire scientifique. À la différence des recherches décrites plus haut, nous sommes intéressés non pas par la manipulation stratégique de la « vérité » par les acteurs impliqués à diverses échelles dans l’implémentation d’une politique ou la vente d’un produit. Il n’est pas question dans notre étude d’utiliser le « doute » pour fragiliser une connaissance scientifique établie. Le choix sur ce qui est « communicable » est formulé plus en amont par les scientifiques et le caractère potentiellement « dangereux » d’un résultat est mesuré d’après les retombées attendues en termes de crédit scientifique qu’il est susceptible d’engendrer. Nous nous focalisons donc sur la production des résultats et sur la gestion que les scientifiques eux-mêmes leur réservent. Notamment, nous avons constaté que le secret entoure certaines anomalies quand elles sont perçues comme contraires aux intérêts des leurs découvreurs. Peu de travaux se sont focalisés sur le processus qui amène les scientifiques à garder certaines données secrètes et sur les raisons qui l’animent.
22Dans un ouvrage classique sur la communauté scientifique, Warren O. Hagstrom (1965) présente le secret comme un comportement déviant qui peut faire appel à diverses explications. Nous pouvons partir des raisons qu’il invoque pour préciser les spécificités de notre cas empirique. Du texte d’Hagstrom, on voit se dégager trois possibles fonctions du secret. En premier lieu, le scientifique choisit de ne pas dévoiler ses résultats pour prévenir l’appropriation et l’utilisation de ses idées par d’autres. Deuxièmement, la propriété des résultats peut être maintenue sur des résultats partiels obtenus au fur et à mesure du travail du scientifique, pour lui consentir, au moment opportun, de livrer l’aboutissement complet de ses recherches. Cela limite la possibilité que d’autres puissent l’anticiper et assure un impact majeur des publications. Un troisième cas de figure se dégage ; le secret peut se justifier par le manque de certitudes quant à la validité des idées du scientifique. Il peut alors décider de ne pas rendre public son travail en attente d’une accumulation de preuves suffisantes pour le rendre « fiable ». On voit dans cette typologie que le secret peut aider le scientifique à prévenir une conduite interdite (le vol d’idée), à augmenter la portée des résultats ou à se protéger d’une défaite embarrassante. Il est considéré à la fois comme une conduite malhonnête et comme un moyen de s’y opposer. Nous voudrions élargir la réflexion et discuter du secret dans un autre contexte, celui où le scientifique cache des résultats qu’il considère comme « vrais » non pas par crainte qu’ils soient utilisés frauduleusement mais pour éviter des conflits qui pourraient menacer sa carrière. Si Hagstrom décrit le secret comme une pratique plutôt solitaire, nous verrons, dans notre cas, sa dimension collective et négociée.
23De notre étude émerge que les décisions de communiquer ou pas des données nous informent sur la manière dont la contrainte de l’évaluation pèse sur l’élaboration même de la connaissance. La disparition de certaines données est le symptôme de l’environnement concurrentiel où les chercheurs doivent se démarquer par leur découverte, ce qui aboutit à une sélection des résultats « intéressants » parce que acceptables par des revues scientifiques (préférablement prestigieuses). Le secret comme réponse des acteurs, parfois négociée collectivement, révèle les effets des normes imposées par les éditeurs scientifiques sur la production même des résultats.
24La gestion des anomalies en science est désormais un thème classique. On peut penser à l’important travail de Susan Leigh Star (Star, 1985 ; Star & Gerson, 1987) qui retrace la trajectoire historique des anomalies qui peuvent changer de nature et évoluer selon les conditions théoriques, matérielles et sociales. En lignée avec les apports désormais classiques de la sociologie des sciences, nous faisons le constat que le succès d’un « fait » ne dépend pas seulement des résultats issus de la « paillasse », il trouve aussi ses raisons dans le contexte social et économique dont les normes doivent être à chaque fois délimitées. Ici les données de l’expérience, bien que concluantes, n’autorisent pas la mise en circulation d’une nouvelle « vérité », il faut invoquer d’autres paramètres pour expliquer pourquoi elle est passée sous silence. L’occultation d’une anomalie est justifiée à la fois par la crainte d’aller contre des connaissances dominantes et par l’obligation de produire des résultats « publiables ». Notre cas fournit des arguments en faveur de la flexibilité interprétative (Collins, 1981) car l’accumulation de preuves qui vont à l’encontre de résultats relatés par la littérature rend compte de l’existence de visions divergentes sur un même phénomène et, dans le même temps, du poids des contingences sur la reproduction des expériences.
25S’intéresser au secret permet d’identifier les pratiques qui s’écartent du partage des données auquel devrait viser le travail scientifique. C’est un bon moyen pour mettre au jour les possibles frictions entre plusieurs normes qui gouvernent le quotidien des chercheurs.
L’ignorance en neuro-imagerie
26Nous allons nous intéresser à une occultation ordinaire de la connaissance dans la recherche fondamentale en neurosciences au moyen des pratiques observées lors de notre enquête ethnographique. Nos observations ont été réalisées en France, sur deux sites : un centre d’imagerie par résonance magnétique fonctionnel (IRMf) qui est voué à la recherche fondamentale, et un institut de neurosciences où nous nous sommes focalisée sur le travail d’une des équipes dont l’intérêt principal est la cognition sociale. Le premier lieu nous a permis de suivre l’acquisition des images et la réalisation des expériences, mais aussi de nous familiariser avec l’environnement sociotechnique dans lequel collaborent les ingénieurs qui gèrent la plateforme et les utilisateurs du centre. Prolonger notre enquête auprès des neuro-imageurs au sein de l’institut des neurosciences, nous a donné accès à l’étape de traitement des images et du travail in silico (Gallezot, 2002). En fait, la cartographie du cerveau à l’ère du numérique ne s’appuie pas seulement sur des images générées lors d’expériences de laboratoire, mais également sur l’exploration de grandes bases où une large quantité de données sont stockées et mises à la disposition des scientifiques.
27L’exemple que nous étudions ici est issu de l’observation des pratiques d’un neuro-imageur qui produit des cartes du cerveau à partir d’images IRM récupérées sur des bases de données en ligne. Nous avons suivi pendant environ 18 mois son activité ainsi que celle des autres membres de l’équipe et de leurs collaborateurs spécialisés dans la neuro-imagerie (des chercheurs, des stagiaires, des ingénieurs, des développeurs). Cela a demandé une présence régulière auprès d’eux, la réalisation et l’enregistrement de nombreux entretiens, la participation à des moments collectifs comme des réunions d’équipe, des séminaires et des journées d’étude. Le choix de se focaliser en particulier sur quelques neuro-imageurs s’explique par au moins deux raisons. Circonscrire les observations nous a permis d’abord de faire face à la complexité du travail scientifique, donc de pouvoir comprendre, par un examen détaillé de cas limités, les étapes techniques de traitement d’images et leur enchaînement. Ensuite, cela nous a donné accès aux aléas et aux rebondissements auxquels toute étude est confrontée sur le long terme. En particulier, des pratiques « aux marges », comme l’occultation de certaines données peuvent être difficilement repérées si les études ne sont pas saisies dans leur globalité et de façon continue. Néanmoins, la gestion des données, dont relate le cas empirique que nous décrivons ici, ne constitue pas une exception ou l’apanage d’une histoire isolée. Nous avons pu constater que souvent la communication de certains éléments ou de certaines pratiques est considérée comme risquée et que face à des résultats jugés « défavorables » à leurs recherches, les scientifiques interrogés doivent sans cesse se livrer à une sélection des matériaux à partager pour répondre au mieux à un objectif de performance.
28Notre informateur principal est un post-doctorant engagé dans la recherche des spécificités anatomiques du cerveau des autistes. Nous allons nous focaliser sur le moment où il détecte une anomalie dans le fonctionnement d’un outil de traitement de données de neuro-imagerie et où une décision collective aboutit à la mise à l’écart du problème. Au niveau politique, la dénonciation publique du dysfonctionnement apparaît comme une pratique risquée à la fois pour le scientifique et pour son équipe, et au niveau symbolique, une publication critique sur une méthode est considérée comme secondaire vis-à-vis de l’annonce d’une nouvelle découverte. Nous discuterons également de l’opacité qui est maintenue autour de certains résultats qui sont en contradiction avec les hypothèses défendues par les chercheurs. Les idéaux d’une mise à disposition et d’une libre circulation des données qui encadrent le phénomène des Big data se heurtent aux règles d’attribution du capital matériel et symbolique qui animent la recherche scientifique.
Des anomalies pas commodes
29L’ingénieur que nous allons suivre et que nous appellerons Jérôme est l’un des membres de l’équipe de cognition sociale, et bien que son contrat de chercheur post-doctorant ait été reconduit pour un an, sa situation professionnelle reste précaire. Brillamment diplômé, Jérôme a obtenu une thèse en physique dans une université parisienne où il a développé une méthode de mise en correspondance automatique de structures cérébrales issues d’images IRM. Il a ensuite intégré l’institut de neurosciences dans une autre région. Cet établissement existe depuis seulement quelques années, mais il a su se créer rapidement une réputation internationale. Fort d’une interdisciplinarité proclamée, l’institut s’appuie sur une diversité de thèmes de recherche, en favorisant une exploration du fonctionnement cérébral à différentes échelles et en mobilisant un grand nombre de techniques (électroencéphalogramme, microscopie optique, IRM, eye tracking, chirurgie expérimentale in vivo). Les acteurs de la recherche travaillent aussi en collaboration avec le monde médical, ce qui se traduit par une présence dans les équipes de professionnels exerçant en milieu hospitalier.
30Jérôme a été recruté par son équipe sur la base de son expertise en méthodes informatiques de traitement d’images, qui fournit une nouvelle approche pour la recherche d’une possible « signature » anatomique et fonctionnelle de pathologies où la « cognition sociale » est défaillante, comme l’autisme. Jérôme travaille sur plusieurs projets où il est question de comparer, avec différentes méthodes, des groupes d’images IRM du cerveau de patients atteints d’autismes et des groupes d’images de sujets sains. Le but est celui de mesurer, à l’aide de programmes informatiques spécifiques, les différences anatomiques entre le cerveau « normal » et le « cerveau autiste ». Une des études que Jérôme coordonne utilise un logiciel qui permet de générer, à partir d’images IRM, les réseaux cérébraux qui peuvent ensuite être visualisés et comparés.
31Les chercheurs en neurosciences cherchent de plus en plus à confirmer expérimentalement l’hypothèse d’un dysfonctionnement de connectivité (tant structurelle que fonctionnelle) qui caractériserait certaines formes d’autisme. En s’inspirant des concepts issus de la théorie des graphes, ils avancent l’idée que le réseau cérébral « normal » serait un réseau « petit monde » (plus connu sous l’appellation anglaise small world), caractérisé par un équilibre entre intégration (corrélations globales très efficaces) et ségrégation (corrélations locales très efficaces), et que le réseau cérébral des personnes atteintes d’autisme aurait des défauts d’intégration, ce qui expliquerait une désorganisation pathologique (Bassett & Bullmore, 2006 ; Barttfeld et al., 2011).
32Les images du cerveau utilisées dans ce projet sont issues d’une base qui réunit des données de neuro-imagerie associées à des informations phénotypiques (relatives au sexe, à l’âge, au diagnostic, au Q.I.) de sujets sains et de sujets autistes. Sur cette plateforme appelée ABIDE (Autism Brain Imaging Data Exchange) sont stockées plus de 1000 images IRM provenant d’institutions hospitalières et centres de recherche de différents pays. La mise à la disposition d’un grand nombre de données permet aux chercheurs de gagner en signification statistique et de pallier les critiques qui accusent les recherches en neuro-imagerie de surévaluer la portée de résultats produits dans le cadre d’expériences employant trop peu de sujets (Button, 2013 ; Ioannadis, 2008). Mais l’exploitation des images qui sont contenues dans la base de données n’est ni simple ni immédiate. Un long processus de traitement est nécessaire avant de procéder à leur comparaison. Les chercheurs doivent d’abord standardiser les matériaux pour pouvoir les regrouper et ensuite leur appliquer des traitements pour qu’ils soient « lisibles » par les logiciels qu’ils choisissent d’utiliser. En l’occurrence, les images viennent de sites différents, ce qui signifie qu’il faut vérifier, toujours à l’aide de programmes informatiques, celles qui peuvent être assemblées et comparées. Les données doivent aussi subir un traitement, à savoir une segmentation en régions, car l’identification de celles-ci est une étape préalable indispensable à la production des cartes des réseaux cérébraux via le logiciel choisi par les chercheurs. Les images issues de la base de données ne sont donc pas utilisées telles quelles, elles font l’objet d’une série d’opérations afin de répondre à des contextes d’usages spécifiques.
33L’équipe a recruté deux stagiaires issues d’une école d’ingénierie pour accompagner Jérôme dans ce travail qui se compose de plusieurs étapes, mais que nous n’allons pas décrire dans les détails. Ce qui nous intéresse ici, c’est la phase finale, celle de la génération des cartes des réseaux qui constituent les résultats de la recherche. Le chercheur et les deux étudiants ont constitué des groupes d’images homogènes selon différentes variables (âges, sites de provenance des données, type de diagnostic) et ont procédé à leur comparaison. Mais les cartes des réseaux qui dérivent des analyses du logiciel, s’avèrent très variables au point qu’il est impossible d’avancer des interprétations et elles sont, du coup, inutilisables. La variabilité des résultats est tellement importante que tout le travail réalisé jusque-là se révèle un échec. Un des stagiaires m’explique :
« […] ce qu’on observe, c’est pas qu’on n’a pas des résultats… mais c’est que les résultats varient énormément d’un sous-groupe à un autre, on a une énorme base de données, on compare à chaque fois autistes et contrôles, on a fait plein de groupes autistes et contrôles et chaque fois on a des choses différentes, c’est-à-dire qu’on n’a pas été capables de dire au travers de plusieurs sous-groupes d’autistes et de contrôles s’il y avait des différences qui étaient robustes. Donc, on s’est dit : on n’a pas des mesures objectives… toute la méthode nous donne des résultats qui ne sont pas reproductibles et ne nous donne pas de choses cohérentes et interprétables… »
35Devant l’incohérence manifeste de l’ensemble des résultats, Jérôme commence à douter du logiciel lui-même et décide alors de réaliser un « test » pour vérifier ses performances :
« On s’est dit : attends ! C’est tellement pas reproductible qu’on va faire quelque chose… On va comparer deux groupes de contrôles, pour voir si la méthode nous donne des différences du même ordre que celles qu’on trouve entre autistes et contrôles, et, si c’est le cas, ça veut dire que la méthode c’est n’importe quoi… »
37Cette intuition sera confirmée par le fait que les mêmes différences anatomiques entre les cerveaux des autistes et les cerveaux des contrôles sont détectées entre groupes de cerveaux contrôles confrontés entre eux. Jérôme et les deux stagiaires décident alors d’examiner les publications relatives à l’utilisation de la méthode en question. Celle-ci a été conçue au début des années 2000 et a été depuis utilisée par les neuroscientifiques pour l’étude de diverses pathologies. Voici la stratégie que Jérôme veut adopter pour tester le logiciel :
« On reprend la littérature où ils comparent des groupes contrôles avec différentes pathologies et on va voir ce qu’ils obtiennent dans les groupes de contrôles et on va les comparer entre les publications. Donc on voit s’ils retrouvent les mêmes choses… Parce que s’ils ne retrouvent pas les mêmes choses ça veut dire qu’effectivement dans la littérature ça se voit que la méthode a un problème et c’est ce qu’on a observé. »
39Après avoir constaté que les comparaisons de groupes contrôles, effectuées avec ce même logiciel, aboutissent à des résultats différents au travers des articles, Jérôme se convainc que des anomalies ont échappé aux relecteurs et aux responsables de revues. Les chercheurs essaient néanmoins d’écarter l’éventualité qu’ils soient responsables d’avoir, eux-mêmes, introduit des erreurs durant les analyses. Ils contrôlent alors scrupuleusement la segmentation du cerveau en régions, étape dont cette méthode dépend et qui peut contribuer à altérer les données. Mais cette précaution supplémentaire ne suffit pas à renverser l’incohérence des résultats.
40Arrivé à ce stade, Jérôme a réuni assez de preuves contre cet outil de traitement d’images et a vraisemblablement les raisons nécessaires pour les rendre publiques, mais ce travail de vérification et la confiance en ses observations ne sont pas suffisants. Rendre manifeste une anomalie n’est pas un acte anodin :
« […] publier un article en disant “cette méthode ne marche pas”, ça veut dire que tu publies un article où tu dis que ces dix articles [7] disent n’importe quoi ; quand tu fais ça et que t’es pas en poste, c’est un risque… »
42Précisons que Jérôme est un post-doctorant et qu’il cherche à entrer au CNRS. La position qu’il occupe semble donc une des raisons principales pour lesquelles il ne peut pas se « permettre » d’attaquer de front une partie de la communauté. Il rajoute même « si j’avais été en poste, il n’y aurait pas eu d’hésitation, on l’aurait fait ». Ces réticences ne sont pas seulement personnelles, elles sont surtout exprimées collectivement dans les rencontres entre le chercheur et ses collègues. Lors d’une réunion hebdomadaire, chaque chercheur présente la progression de ses travaux. À cette occasion, Jérôme illustre en détail, à l’aide de graphiques, les données obtenues avec la méthode de traitement d’images qui lui donne du fil à retordre. Une discussion vive s’engage avec les autres membres de l’équipe sur la manière de gérer ses résultats. Vu le temps et les moyens que le laboratoire a investis sur ce projet et les nombreux tests réalisés par Jérôme et ses stagiaires, la question de la fiabilité des résultats n’est pas remise en cause. Le chef d’équipe exprime ses réticences quant à la possibilité de rendre publiques ces découvertes. Il explique aux autres membres pourquoi publier un article visant à critiquer la méthode n’est pas raisonnable :
« C’est une bataille, c’est-à-dire que tu vas contre le courant, contre les gens qui ont publié, contre des gros labos et lui il s’appelle Jérôme S. c’est un petit, pas connu… C’est pas que c’est un combat qu’il faut abandonner, c’est juste que ce n’est pas le moment… Peut-être que l’année prochaine ça sera un combat qu’il faudra mener mais pour l’instant… c’est beaucoup plus dur de montrer que ça marche pas, que de faire un papier sur NeuroImage [8] pour dire : ah les autistes sont différents des contrôles ! »
44L’équipe se verrait donc tout entière exposée à un conflit ouvert avec de gros laboratoires et des revues importantes, celles qui ont accepté les articles sur la méthode controversée. Même s’il s’agit incontestablement d’un fait « nouveau », cette découverte ne semble pas susciter le même enthousiasme que l’on aurait accordé à des résultats attestant l’existence d’un « biomarqueur » de l’autisme. Lors d’une autre discussion, Jérôme précise :
« Démontrer qu’une méthode ne marche pas, c’est au moins aussi dur que démontrer qu’il y a une différence entre autistes et contrôles ou qu’on a des choses intéressantes à dire. Tu fais le choix, au lieu d’avancer dans la compréhension de la pathologie, tu fais le choix de démontrer un truc purement méthodologique, déjà ça intéresse beaucoup moins G. (responsable de l’équipe), etc. »
46L’orientation de l’équipe, ses objectifs et ses priorités sont ici mis en avant : un article méthodologique ne ferait pas avancer le travail et la visibilité de l’équipe autant qu’une découverte sur les spécificités anatomiques du cerveau des autistes. Toutefois, Jérôme décide d’effectuer un dernier essai en faisant varier la manière de calculer la corrélation entre les régions. L’espoir est celui d’éviter une « guerre » avec les concepteurs du logiciel et de trouver des solutions intermédiaires :
« On va regarder si, en changeant des petites choses dans la méthode, on ne peut pas résoudre le problème et dans ce cas-là c’est très différent parce que tu vas faire un papier où tu dis, regardez : cette méthode a un problème donc attention à ce qui a été fait jusque-là… Mais on a une solution, c’était pas très grave, voilà la solution qu’on apporte. Il y avait cette méthode, il y avait des trucs qui étaient aberrants… Maintenant, on a changé la méthode et elle ne donne plus des trucs aberrants. Donc, voilà on change cette pièce-là et on voit ce que ça donne. »
48Changer une des « pièces » ne permet pas de dépasser le problème qui est pour l’instant mis de côté en attendant que Jérôme change de statut. À ce moment-là, la solution envisagée par l’équipe est plutôt celle de programmer une visite de Jérôme dans le laboratoire étranger auquel le concepteur de la méthode informatique est rattaché. Cela permettrait de communiquer le problème par voies « officieuses » en évitant un conflit potentiellement nuisible pour les scientifiques français. Voilà un extrait des échanges relatifs aux stratégies d’action de l’équipe. Le chercheur qui participe à la discussion est un des trois neuro-imageurs de l’équipe, un jeune scientifique réputé à l’international spécialisé dans l’imagerie cérébrale appliquée à l’étude de l’autisme :
Chercheur : « Je lui dirai qu’il m’invite chez lui, je prends une semaine, je fais tourner les mêmes choses sur son machin… »
G. (Responsable de l’équipe) : « Voilà ça c’est le truc à faire, aller là-bas et à l’occasion d’un séminaire, ou je ne sais pas quoi, et tu dis voilà… et t’en discutes avec lui d’abord… »
Chercheur : « Ou alors il faudrait le faire en poster… »
Jérôme : « Ouais, il faut que je vienne avec une armure… ils vont être nombreux à venir voir mon poster… armés… » (rires)
50Au-delà de cette dernière boutade, le dévoilement du dysfonctionnement du logiciel semble vouloir être joué non pas ouvertement dans une publication, ce qui pourrait être considéré comme une attaque et qui exposerait l’équipe à des ripostes dangereuses, mais sur le plan informel de la visite ou du poster [9].
51Selon Young et ses collaborateurs (2008), rendre publics l’échec d’une expérience, la faiblesse d’une étude ou d’une technique n’est pas chose aisée. Critiquer publiquement une étude car sa réplication ne produit pas les mêmes données signifie souvent débuter une véritable « croisade ». C’est pour cela que les doutes quant à la pertinence d’un procédé ou à la véracité d’un ensemble de données font l’objet d’échanges informels et « prudents », au moins jusqu’à la formation d’une « masse critique » d’objections suffisante à faire valoir sa position :
« Les données négatives ou contradictoires peuvent être discutées lors de conférences ou entre collègues, mais elles font surface plus publiquement seulement quand un paradigme dominant est remplacé par un autre »
53Ainsi la transparence vis-à-vis de résultats « contradictoires » est aussi problématique. C’est ce qui ressort de nos observations autour d’une autre recherche où Jérôme mesure et compare, à partir d’images IRM de sujets « sains » et de sujets autistes, l’épaisseur et la longueur des sillons, les interstices qui séparent les circonvolutions cérébrales. Ces « objets » ont subi un regain d’intérêt depuis que, suite à l’introduction et au perfectionnement des technologies informatiques appliquées aux données d’imagerie à la fin des années 1990, ils ont pu être identifiés et modélisés automatiquement. Les sillons sont devenus alors des repères anatomiques quantifiables et élus à possibles biomarqueurs de pathologies neurologiques, comme l’autisme.
54Une des étapes de l’étude prévoit que le chercheur calcule la corrélation des valeurs morphométriques [11] avec des données comportementales utilisées dans l’évaluation diagnostique de l’autisme pour vérifier la correspondance entre un comportement et un trait physique. Mais les résultats issus des mesures effectuées sur les images ne coïncident pas avec les résultats des corrélations avec les échelles diagnostiques des comportements. Jérôme explique :
« Dans notre travail, on a fait les différences entre les groupes. On a des corrélations avec les scores comportementaux, on a eu des corrélations significatives… sauf qu’elles vont dans le mauvais sens, ça veut dire qu’on a un sillon qui est plus profond chez les autistes que chez les contrôles, sauf que quand on corrèle avec un score de sévérité, plus le sillon est profond et moins on est autiste, c’est pas cohérent. »
56Jérôme dit que la corrélation ne va pas dans le « bon » sens et, même s’il considère ce résultat comme digne d’intérêt, il affirme aussi ne pas pouvoir prétendre publier son article dans des revues avec un « impact factor » très élevé. Pour cela, il aurait fallu tout au moins « minimiser » la contradiction, c’est-à-dire en partie l’ignorer :
« Il y en a qui décident même de ne pas mentionner dans quel sens va la corrélation. Mais notre point de vue, c’est que le fait qu’il y a une corrélation c’est important, ça veut dire quelque chose. O.K., on ne sait pas l’interpréter, mais c’est mieux que s’il n’y avait pas de corrélations, donc on va assumer qu’il y a une corrélation qui va dans le mauvais sens et le mettre noir sur blanc. »
58Dans cet exemple on voit qu’« avouer » un « mauvais » résultat (dans ce cas une corrélation contradictoire entre données comportementales et mesures relatives à la morphologie des sillons) signifie encourir le risque du rejet de publication de la part des revues les plus prestigieuses. Le fait de ne pas pouvoir fournir une interprétation claire des résultats est jugé négativement et semble constituer un écueil que l’on peut minimiser en évitant de mentionner toutes les informations, comme démontré par une étude précédente (Anichini, 2014).
Normes pratiques et ethos du partage
59Les exemples décrits ici témoignent des réticences vis-à-vis de certaines informations qui pourraient entraver ou porter préjudice à la carrière des chercheurs. Qu’il s’agisse de preuves qui contestent le bon fonctionnement d’un logiciel ou de données qui s’opposent au sens des prédictions, ces résultats sont considérés problématiques et font l’objet d’un traitement particulier. La possibilité que ceux-ci soient rejetés, qu’ils soient au centre d’un conflit entre laboratoires, ou simplement le risque qu’ils ne reçoivent pas assez d’attention et d’intérêt de la part de la communauté scientifique, sont autant de raisons qui expliquent le refus des chercheurs à les partager. Nier l’accès à ces connaissances, pratique que nous avons interprétée comme étant un type de fabrication de l’ignorance, nous a permis de comprendre, par la nature des résultats « éliminés » et les réactions qu’ils suscitent, comment les normes d’évaluation des résultats de la recherche, imposées notamment par les revues scientifiques, agissent sur les laboratoires et ses membres. Nous avons vu qu’une découverte « positive », à savoir la détection d’une différence anatomique entre cerveaux normaux et autistes, est à la fois plus rentable et moins risquée que le dévoilement du dysfonctionnement d’une méthode de traitement d’images. La publication des deux découvertes ne revêt pas les mêmes enjeux pour le laboratoire et n’a pas les mêmes effets sur la carrière des individus intéressés.
60En premier lieu, la question de l’ignorance volontairement entretenue sur un certain type de données et le processus de triage des résultats qui en ressort permet d’identifier les injonctions que les chercheurs doivent satisfaire pour assurer leur position. Ces derniers sont évalués de plus en plus sur la base du nombre, mais aussi de la nature, des découvertes présentées. Une offre trop « large » de résultats qui fait face à un éventail relativement restreint de revues et des ressources limitées amènent les comités de lecture des revues scientifiques à préférer les données avec des effets « positifs » (par rapport à l’hypothèse attendue) ou spectaculaires, mais aussi « ceux qui portent la promesse d’une exploitation commerciale ou biotechnologique, ou ceux susceptibles d’être signalés au grand public dans les médias de masse » [12] (Young, Ioannidis, & Al-Ubaydli, 2008, p. 5, notre traduction). Pour favoriser l’acceptation de leur travail par les pairs et leur intégration dans la communauté scientifique, les scientifiques tendent à minimiser ou occulter les échecs et à surévaluer les résultats qui sont favorables aux prédictions du protocole expérimental.
61En deuxième lieu, le choix du secret autour d’une partie des données nous amène à faire dialoguer les pratiques scientifiques avec les idéaux de transparence et de mutualisation auxquels les chercheurs sont censés adhérer. Dans le domaine de la neuro-imagerie, à cause du nombre d’études publiées, de la variabilité des résultats et des pratiques, mais aussi de la complexité des traitements réservés aux images du cerveau, les chercheurs sont de plus en plus tenus à rendre publics tous les éléments utiles à la reproduction des expériences. Selon Button et ses collaborateurs (2013), pour minimiser le « coût » de la variabilité des pratiques individuelles, le chercheur « honnête » doit accorder les hypothèses aux résultats publiés, rendre publics les échecs, fournir toutes les informations relatives au protocole. L’ethos [13] qui est véhiculé par les recommandations de Button incite les chercheurs à admettre publiquement les limites statistiques de leurs études, à publier les résultats négatifs ou incohérents, à partager les données, à rendre disponibles les métadonnées et à préférer la collaboration avec d’autres scientifiques. Mais ces principes s’adaptent difficilement au contexte socio-économique actuel caractérisé par une augmentation de l’offre scientifique et par des ressources rares. Ce contexte se répercute sur les choix des individus de partager ou pas leurs données. D’autres éléments confirment que, pour le chercheur, le partage a parfois un « prix » qu’il n’est pas prêt à payer. Dans une discussion sur la transparence vis-à-vis des métadonnées dans les publications, un autre chercheur explique :
« Pour mettre à disposition toutes les données, tous les traitements pour que tout le monde puisse les refaire, il faut que tu fasses un effort supplémentaire pour que les traitements soient nickels et même faciles à mettre en œuvre, simplement il faut que tu passes du temps, toi, à faire en sorte que ce que tu fais soit facile à refaire. […] Ça exige de faire les choses beaucoup plus propres et ça exige donc de passer plus de temps sur l’étude, et de publier moins, ce qui est complètement opposé aux instances qui financent aujourd’hui… »
63Ici, encore une fois, l’évaluation de l’efficacité du travail scientifique sur la base de la productivité ne semble pas compatible avec le partage de toutes les informations qui seraient indispensables à la reproduction des résultats, avec des conséquences évidentes sur la détérioration de la connaissance. Les « normes pratiques » (De Herdt & Olivier de Sardan, 2015) qui émergent de notre étude de terrain témoignent donc des injonctions concrètes qui façonnent le travail scientifique et répondent à des stratégies adoptées pour « survivre » dans un contexte de plus en plus compétitif.
64Le secret et l’ignorance qui en découle constituent une voie privilégiée pour appréhender les mécanismes de contournement et les espaces de négociation autour de ce qui peut être mis en commun et de ce qui doit rester « dans les tiroirs ». À l’ère du numérique, il est intéressant de réfléchir aux zones d’ombres qui peuvent obscurcir le tableau de l’open data et de la science ouverte qui portent l’idée, plus ancienne, du partage désintéressé de la connaissance. Si d’un côté on incite les chercheurs à alimenter les bases de données, à embrasser des pratiques collaboratives et à être irréprochables quant aux conditions de réalisation de leurs expériences, de l’autre côté la compétition qui régule l’acquisition du capital scientifique rend difficile, en pratique, d’adopter sans réserves ces conduites. Bien que l’ouverture et le partage de données scientifiques soient de plus en plus souhaités et valorisés, certaines informations sont perçues par les scientifiques comme capables de porter préjudice à leur carrière.
Conclusion
65Dans cet article, nous avons voulu analyser un type spécifique de production de l’ignorance en science, à savoir une occultation stratégique des connaissances. Le secret répond ici à des contraintes institutionnelles et économiques dans lesquelles la recherche scientifique évolue. La décision de ne pas dévoiler une information, une découverte, une donnée, fait partie ici des stratégies individuelles qui, bien que négociées collectivement, sont mobilisées par le scientifique pour atteindre la reconnaissance matérielle et symbolique au travers de laquelle il peut accéder au statut de chercheur professionnel et, plus tard, consolider sa réputation. Les exemples décrits ici montrent que la stratégie du secret est adoptée pour préserver les scientifiques d’un conflit entre laboratoires, mais aussi parce que la connaissance produite ne s’aligne pas sur les critères d’une découverte considérée comme « désirable ». Dans les deux cas, il s’agit d’une connaissance « inconfortable », au sens de Rayner (2012), mais analysée à une échelle différente, celle des calculs personnels qui influencent les prises de décisions quotidiennes des scientifiques. Pour Rayner, la connaissance devient « inconfortable » quand elle rencontre la sphère politique, qui lui réserve un traitement spécifique, comme le déni ou le détournement. Notre étude se place d’un point de vue « interne » : au lieu de l’utilisation de la connaissance scientifique selon qu’elle serve (ou desserve) des intérêts économiques et/ou des groupes sociaux, nous avons analysé comment et pourquoi les scientifiques gardent secrètes certaines connaissances en fonction des contraintes institutionnelles qui pèsent sur leur carrière.
66À la lumière des pratiques que nous avons analysées, nous pouvons affirmer que révéler une anomalie peut être une opération préjudiciable à la carrière du scientifique, surtout si son statut n’est pas encore consolidé, de même qu’à son équipe car elle peut ouvrir la voie à une « guerre » entre laboratoires. Les idéaux de communalisme et du désintéressement (Merton, 1973 [1942]), qui incitent à la mise à la disposition et à la libre circulation du savoir, sont contournés par le maintien de la propriété sur certaines informations que l’on refuse de communiquer. Des pratiques de dissimulation de résultats ou de « bricolage de données », que l’on a analysées ailleurs (Anichini, 2014), permettent de comprendre alors l’influence des impératifs socio-économiques sur le processus de l’émergence des découvertes.
Bibliographie
Bibliographie
- Anichini, G. (2014). Quand c’est la science qui bricole, c’est du sérieux. In S. Boulay & M.-L. Gélard, Vivre le sable ! Corps, matière et sociétés, Techniques & Culture, 61, 212-235.
- Barttfeld, P. et al. (2011). A big-world network in ASD : Dynamical connectivity analysis reflects a deficit in long-range connections and an excess of short-range connections. Neuropsychologia, 49, 254-263.
- Bassett, D. S. & Bullmore, E. (2006). Small-world brain networks. Neuroscientist, 12(6), 512-523.
- Button, K. S. et al. (2013). Power failure : why small sample size undermines the reliability of neuroscience. Nature Reviews Neuroscience, 14, 365-376.
- Collins, H. M. (1981). Stages in the empirical programme of relativism. Social Studies of Science, 11(1), 3-10.
- Conway, E. & Oreskes, N. (2010). Merchants of Doubt : How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming. London : Bloomsbury.
- De Herdt, T. & Olivier de Sardan, J.-P. (Eds.) (2015). Real governance and practical norms in Sub-Saharan Africa. The game of the rules. Cheltenham : Routledge.
- Dedieu, F. & Jouzel, J.-N. (2015). Comment ignorer ce que l’on sait ? La domestication des savoirs inconfortables sur les intoxications des agriculteurs par les pesticides. Revue française de sociologie, 56, 105-133.
- Frickel, S. & Edwards, M. (2014). Untangling Ignorance in Environmental Risk Assessment. In S. Boudia & N. Jas (Eds.), Powerless Science ? The Making of the Toxic World in the Twentieth Century (pp. 215-233). New York : Berghahn Books.
- Funtowicz, S. O. & Ravetz, J. R. (1993). Science for the Post-Normal Age. Futures, 25(7), 739-755.
- Funtowicz, S. & Ravetz, J. (1997). Environmental problems, post-normal science, and extended peer communities. In C. Albaladejo & F. Casabianca (Eds.), La recherche-action. Ambitions, pratiques, débats. Études et Recherches sur les Systèmes Agraires et le Développement, 30, Versailles, INRA, 169-175.
- Gallezot, G. (2002). La recherche in silico. In G. Chartron (dir.), Les chercheurs et la documentation numérique : nouveaux services et usages (pp. 229-253). Paris : Éditions du Cercle de la Librairie.
- Hagstrom, W. O. (1965). The Scientific Community. New York : Basic Books.
- Ioannidis, J. P. A. (2008). Why most discovered true associations are inflated. Epidemiology, 19, 640-648.
- Kant, I. (1970 [1800]). Logique. Paris : Vrin.
- Kempner, J., Merz, J., & Bosk, C. L. (2011). Forbidden Knowledge : Public Controversy and the Production of Nonknowledge. Sociological Forum, 26(3), 475-500.
- Luhmann, N. (1998). Observations on Modernity. Stanford : Stanford University Press.
- MacKenzie, D. (2011). The Credit Crisis as a Problem in the Sociology of Knowledge. American Journal of Sociology, 116, 1778-1841.
- McGoey, L. (2010). Profitable Failure : Antidepressant Drugs and the Triumph of Flawed Experiments. History of the Human Sciences, 23, 58-78.
- McGoey, L. (2012). The logic of strategic ignorance. The British Journal of Sociology, 63(3), 533-576.
- McGuire, W. J. (1969). Suspiciousness of experimenter’s intent. In R. Rosenthal & R. L. Rosnow (Eds.), Artifact in behavioral research (pp. 13-57). New York : Academic Press.
- Merton, R. K. (1971). The precarious foundations of detachment in sociology. In E. A. Tiryakian (Eds.) The Phenomenon of Sociology (pp. 188-199). New York : Appleton Century-Crofts.
- Merton, R. K. (1973 [1942]). The Normative Structure of Science. In N. W. Storer (Ed.), The Sociology of Science (pp. 267-278). Chicago : University of Chicago Press.
- Merton, R. K. (1987). Three Fragments from a Sociologist’s Notebooks : Establishing the Phenomenon, Specified Ignorance and Strategic Research Materials. Annual Review of Sociology, 13, 1-28.
- Proctor, R. (2012). Golden Holocaust : Origins of the Cigarette Catastrophe and the Case for Abolition. Berkeley : University of California Press.
- Proctor, R. (1995). Cancer Wars. How Politics Shapes What We Know and Don’t Know About Cancer. New York : Basic Books.
- Ravetz, J. R. (1986). Usable knowledge, usable ignorance : incomplete science with policy implications. In W. C. Clark & R. E. Munn (Eds.), Sustainable development of the biosphere (pp. 415-432). New York : Cambridge University Press.
- Rayner, S. (2012). Uncomfortable knowledge : the social construction of ignorance in science and environmental policy discourses. Economy and Society, 41(1), 107-125.
- Roberts, J. (2013). Organizational ignorance : Towards a managerial perspective on the unknown. Management Learning, 44(3), 215-236.
- Star, S. L. (1985). Scientific work and uncertainty. Social Studies of Science, 15(3), 391-427.
- Star, S. L. & Gerson, E. M. (1987). The Management and Dynamics of Anomalies in Scientific Work. The Sociological Quarterly, 28(2), 147-169.
- Van der Sluijs, J. P. (2012). Uncertainty and Dissent in Climate Risk Assessment : A Post-Normal Perspective. Nature and Culture, 7, 174-195.
- Young, N. S., Ioannidis, J.P.A., & Al-Ubaydli, O. (2008). Why current publication practices may distort science. The market for exchange of scientific information : the winner’s curse, artificial scarcity, and uncertainty in biomedical publication. PLoS Medecine, en ligne : http://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.0050201 (consulté le 13 janvier 2014).
Mots-clés éditeurs : pratiques expérimentales, bases de données, ignorance, anthropologie des sciences, neuro-imagerie
Mise en ligne 03/03/2017
https://doi.org/10.3917/rac.034.0065Notes
-
[1]
« New methods must be developed for making our ignorance usable. For this there must be a radical departure from the total reliance on techniques, to the exclusion of methodological, societal or ethical considerations, that has hitherto characterized traditional “normal” science. »
-
[2]
« The sciences themselves are not homogeneous and uniform with regard to how they generate, define, communicate, and investigate nonknowledge. Thus, there exist various epistemic cultures that appear to differ not only in how they make knowledge (Knorr-Cetina, 1999) but also in how they deal with nonknowledge. »
-
[3]
« The high career stakes involved in producing definitive knowledge means that academic honey bee toxicologists would tend to make methodological choices that are more likely to show measurable “positive” effects from apparently isolatable causes. »
-
[4]
Voir Frickel & Edwards (2014).
-
[5]
« […] either directly or by making them prone to criticism from other parts of society that they “ought” to have known. »
-
[6]
« to knowledge considered too sensitive, dangerous, or taboo to produce ».
-
[7]
Il s’agit des recherches qui utilisent cette méthode et qui ont fait l’objet d’une publication.
-
[8]
Revue scientifique de neuro-imagerie.
-
[9]
Un an après, aucune démarche n’a été effectuée pour rendre publics les résultats de Jérôme, qui entre-temps a abandonné cet outil de traitement et s’est investi dans d’autres projets.
-
[10]
« Negative or contradictory data may be discussed at conferences or among colleagues, but surface more publicly only when dominant paradigms are replaced. »
-
[11]
La morphométrie est l’étude quantitative des formes. À l’ère du numérique, les chercheurs effectuent des mesures (concernant le volume, l’épaisseur ou la forme) sur les structures anatomiques issues d’images IRM et extraites à l’aide de logiciels de traitement. Jérôme est spécialiste de la morphométrie sulcale, c’est-à-dire de l’étude quantitative de la forme des sillons.
-
[12]
« […] which carry the promise of commercial or biotechnology exploitation, or those likely to be reported to the general public in the mass media. »
-
[13]
Ce terme est ici employé, à l’instar de Merton (1973 [1942]), pour désigner le(s) système(s) de valeurs au(x)quel(s) la pratique scientifique aspire.