Notes
-
[1]
Je me sépare ici du diagnostic courant selon lequel « pour Merton, la sociologie n’a rien à dire sur le contenu des sciences » (Ragouet, 2002, p. 167). Merton, auteur d’un programme de sociologie de la connaissance, ne doute pas du développement de la spécialité : « It seems that the sociology of knowledge has wedded these tendencies [fact finding and theories] in what promises to be a fruitful union. Above all, it focuses on problems which are at the very center of contemporary intellectual interest » (Merton, 1973, p. 40). Peut-être le diagnostic précité prend-il appui sur une phrase de Storer, dans l’introduction du même volume : « Mulkay and King have suggested that he has erred in not taking more direct account of the substantive content of science in his own formulations » (Storer in Merton, 1973, p. xxviii).
-
[2]
Quand Hertz étudie des ondes stationnaires au moyen d’un résonnateur, il mesure une vitesse de phase. La vitesse est établie par le produit de la longueur d’onde et de la fréquence c = ??. Dans ce cas, il n’y a pas d’intermittence et le contrôle porte sur le caractère stationnaire et monochromatique de l’onde.
-
[3]
Lorsque Fizeau mesure le temps de vol d’une onde entre Montmartre et Suresnes, il fonde sa détermination sur le comportement de la tête du train d’ondes, assimilable à une perturbation : il mesure une vitesse de groupe. La vitesse est établie par le rapport d’une distance et d’un temps c = x/t. Dans ce cas, le faisceau est rendu intermittent et la mesure porte sur des ondes progressives de fréquences mélangées.
-
[4]
La vitesse de phase et la vitesse de groupe ne sont égales que dans un milieu non dispersif, comme le vide. Dans un milieu dispersif, la tête du train d’onde est déformée. Les ondes précurseurs qui la composent ayant une moindre amplitude, elles ne sont pas enregistrées par le détecteur. Le signal est alors perçu avec un retard qui conduit à sous-estimer la vitesse de propagation de l’onde électromagnétique. Cette différence a un effet limité sur la mesure de la vitesse de la lumière. On a estimé que la vitesse de groupe pouvait être inférieure à la vitesse de phase de 10–5, soit environ 3 km/s. Ajoutons que lorsqu’on dit que la vitesse de la lumière ne peut pas dépasser c, il est fait référence à la vitesse de groupe car la vitesse de phase peut être inférieure ou supérieure à c. Dans certains cas, elle est infinie. Tout dépend de la relation de dispersion.
-
[5]
Cette thèse, consensuelle dans la sociologie des sciences contemporaine, est exprimée par Latour et Woolgar (1986 [1979], pp. 45, 71, 76), Knorr-Cetina (1981, p. 94), Knorr-Cetina and Mulkay (1983, pp. 9-10), Lynch (1993, p. 94), Restivo (1985, p. 85), Lenoir (1997, p. 27) et Rehg (2009, p. 72).
-
[6]
On trouvera des comptes-rendus de cette versatilité des énoncés scientifiques dans Latour et Woolgar (1986 [1979], pp. 179, 237), Knorr-Cetina (1981, pp. 4, 41), Knorr-Cetina and Mulkay (1983, pp. 61, 120), Restivo (1985, pp. 109, 120), Lynch (1993, p. 172), Lenoir (1997, pp. 5, 47-48), Restivo (2005, p. 491) et Rehg (2009, pp. 116-117).
-
[7]
La thèse de la négociation est défendue par Latour et Woolgar (1986 [1979], p. 157), Collins (1981, p. 4), Knorr-Cetina (1981, pp. 51, 66), Lynch (1993, pp. 108, 115), Knorr-Cetina (1995, pp. 152-154), Restivo (2005, pp. 253, 462, 581) et Rehg (2009, p. 75).
-
[8]
Les 28?542 observations ont été faites par N.V. Zimmerman, N.I. Dnieprovskii, A.D. Drozd, G. Maksimov, S.V. Romanskaja et V.R. Berg. Le premier a fait 3?000 observations (Rikun, 2005, p. 42). Romanskaja et Berg environ 20?000 (Pulikov, 1949) ou, selon d’autres sources, Romanskaja 23?500 à elle seule (Vasil’evich, 2011). O.N. Kramer a supervisé les calculs à l’Institut de mathématiques de l’Académie des Sciences. Le programme d’observation de la latitude semble avoir été impulsé en 1915 par Zimmerman, appuyé par Orlov et Baklund, le dernier étant alors directeur de l’observatoire (Bulletin, 1916 ; Kolchinskij, 1977 ; Zhukov et Sobolev, 2002).
-
[9]
L’hypothèse de la « persuasion » (en tant qu’elle diffère de la conviction par des arguments rationnels) est régulièrement avancée par les sociologues des sciences comme Latour et Woolgar (1986 [1979], pp. 157, 214), Knorr-Cetina (1981, pp. 51, 66), Knorr-Cetina and Mulkay (1983, pp. 9-10), Pickering (1992, p. 92), Lenoir (1997, p. 27), Restivo (2005, p. 58) et Rehg (2009, p. 72).
-
[10]
La température, la pression, l’humidité et la turbulence atmosphérique perturbent les observations. La géométrie de l’instrument varie en fonction de la température (longueur du tube optique), de l’angle de visée (flexion du tube optique). Le pointage est sensible à l’usure mécanique, surtout sur une période de quinze ans. À cela s’ajoute les approximations de calcul : interpolation graphique des coordonnées du pôle ; regroupement des valeurs sur des dates moyennes de l’année, absence de prise en compte de l’équation personnelle des chercheurs, les observations ayant été faites par plusieurs observateurs (Kulikov, 1964, p. 90).
-
[11]
À partir de 1881, Michelson tentera de mesurer le vent d’éther par interférométrie. Ces expériences, souvent décrites comme « négatives » dans la littérature, fournirent des résultats ambigüs. Le premier article s’achève par les mots : « The result of the hypothesis of a stationary ether is thus shown to be incorrect » (1881, p. 128), donnant l’avantage à l’éther de Stokes. Mais Lorenz et Pottier montrèrent l’année suivante que l’article de Michelson comportait des erreurs de calcul, ce qu’il admit. Le deuxième article commence par une critique du dispositif utilisé en 1881. Une fois les défauts corrigés, les expériences sont refaites. Michelson et Morley découvrent un décalage de 0,01 (au lieu de 0,4) fois la distance entre deux franges d’interférence. Ils font alors valoir que le mouvement du système solaire dans l’éther n’a pas été étudié et que, par conséquent, l’hypothèse de l’éther n’est toujours pas réfutée : « If there be any relative motion between the earth and the luminiferous ether, it must be small » (1887, p. 341). L’hypothèse de l’éther de Fresnel est alors rejetée au profit de l’éther de Stokes. En 1897, Michelson fait de nouvelles expériences et ne trouve pas le vent d’éther d’altitude prédit par Stokes. Il revient alors à l’hypothèse de Fresnel. Comme l’observe Lakatos (1994, p. 106), l’expérience de Michelson-Morley n’est devenue une expérience de réfutation de l’éther que vingt-cinq ans après sa publication.
-
[12]
Commentant un article de Buchdahl, Canguilhem écrit : « L’externalisme c’est une façon d’écrire l’histoire des sciences en conditionnant un certain nombre d’événements – qu’on continue à appeler scientifiques plutôt par tradition que par analyse critique – par leurs rapports avec des intérêts économiques et sociaux, avec des exigences et des pratiques techniques, avec des idéologies religieuses ou politiques (…) L’internalisme – tenu par les premiers pour idéalisme – consiste à penser qu’il n’y a pas d’histoire des sciences, si l’on ne se place pas à l’intérieur même de l’œuvre scientifique pour en analyser les démarches par lesquelles elle cherche à satisfaire aux normes spécifiques qui permettent de la définir comme science et non comme technique ou idéologie » (1968, p 15).
-
[13]
Le plus connu des promoteurs de l’étude du core set écrit : « Another part of the programme is to relate the sort of work presented here to the wider social and political structure […] The consensual interpretation of day-to-day laboratory work is only possible within constraints coming from outside that work » (Collins 1981, p. 7).
-
[14]
C’est ce que dit Kulikov, à propos des observations faites de 1915 à 1929 : « La vitesse de la lumière a longtemps été déterminée à partir de la constante de l’aberration ou de l’équation de la lumière, jusqu’à ce qu’elle puisse faire l’objet de mesures terrestres directes. Quand ces déterminations expérimentales de la vitesse de la lumière ont été suffisamment perfectionnées, sa relation à la constante de l’aberration et à la parallaxe solaire n’a plus été utilisée dans le but initial, mais à l’inverse, pour déterminer ces valeurs » (1964, p. 55).
Introduction
1Cet article se propose de contribuer au débat actuel sur les méthodes en sociologie des sciences, et en particulier à l’évaluation de la thèse anti-différenciationniste selon laquelle la science serait indiscernable des autres activités humaines, de la pseudoscience ou de la non-science, thèse critiquée sous le nom d’« ordinarisme » (Bunge, 2001). Cet article est fondé sur une étude empirique des mesures de la vitesse de la lumière réalisées entre 1676 et 1983. En préambule, nous corrigerons deux erreurs à propos des rapports entre sociologie des sciences mertonienne et post-mertonienne : premièrement, que la sociologie constructiviste aurait pallié l’absence d’intérêt du mertonisme pour la connaissance scientifique ; deuxièmement, qu’il serait différenciationniste, et le constructivisme anti-différenciationniste (Section 1). On peut alors se demander si la sociologie constructiviste post-mertonienne n’a pas délaissé l’étude de pans entiers de la science qui la font apparaître comme une activité hautement différenciée. Nous présenterons tout d’abord les méthodes de détermination de la vitesse de la lumière (Section 2). Les données empiriques seront ensuite comparées à chacune des propositions du constructivisme, lesquelles seront réécrites au besoin (Section 3). Les propositions réécrites serviront alors de fondement à l’esquisse d’une sociologie internaliste des sciences, illustrée notamment par une révision du concept de « compétition scientifique » (Section 4).
1 – Sociologie des sciences mertonienne et constructivisme
2La sociologie des sciences post-mertonienne, que j’appellerai sociologie constructiviste en raison de son orientation dominante, s’est donnée pour objectif de rendre compte de la construction des connaissances scientifiques. Pour le constructivisme, la science est une construction linguistique et sociale comme d’autres. On a beaucoup écrit sur la construction ; beaucoup moins sur l’indifférenciation des activités. Les chercheurs sont des hommes. Ils sont faillibles, commettent des erreurs, sont mus par l’intérêt privé, sont sensibles à la gloire et aux honneurs, veillent sur leur territoire, font la guerre à leurs adversaires et lèvent à l’occasion des armées pour y parvenir. Par suite, la quête de la connaissance objective serait un mythe créé à destination du grand public. Comme l’écrit Knorr-Cetina : « No interesting epistemological difference could be identified between the pursuit of truth and the pursuit of power » (Knorr-Cetina, 1995, p. 151). De la thèse centrale :
- Il n’y a pas de différence entre la science et les autres activités sociales découlent quatre propositions dérivées :
- Le chercheur produit des inscriptions littéraires à la manière de l’écrivain
- Il n’y a pas de vérité objective, les faits sont constamment construits et déconstruits
- Le chercheur négocie les preuves et les faits comme l’homme politique
- Le chercheur arrache le consentement de ses pairs en recourant à la persuasion
3Compte tenu de l’ampleur de ces critiques, beaucoup de sociologues des sciences contemporains cherchent à réactualiser le programme mertonien. La sociologie des sciences est, pour ainsi dire, au milieu du gué. Malheureusement, les positions mertoniennes ne sont pas toujours correctement perçues. J’en veux pour preuve le compte-rendu d’un ouvrage récent, dans lequel Mathieu Quet écrit :
« La sociologie mertonienne reste profondément “différenciationniste” : elle pose la science comme fondamentalement différente des autres activités de connaissance. Par conséquent, l’approche mertonienne se refuse à analyser le contenu cognitif des sciences, abandonnant cette tâche à l’épistémologie ».
5On peut accepter ce diagnostic à l’exception du relateur logique « par conséquent ». En réalité, le programme mertonien a également produit des résultats opposés à la spécificité de l’activité scientifique. De même, si la sociologie des sciences constructiviste, et en particulier la Sociology of Scientific Knowledge, a soutenu que la science est une activité indifférenciée, il n’est pas impossible que la thèse contraire, prenant en compte les caractères propres de la connaissance scientifique, puisse être défendue sur une base empirique.
6Examinons les rapports entre le programme mertonien et la spécificité de la science. Certaines recherches ont argué que la science était une activité différenciée, au sens, par exemple, qu’il y a correspondance entre le type de travail effectué dans un laboratoire et son organisation sociale (Shinn, 1980). Toutefois, d’autres études sont parvenues à des résultats opposés. Ainsi, les critères des professions scientifiques (Storer, 1966) s’appliquent à d’autres professions, comme la médecine, le droit ou l’architecture. La bureaucratie, l’oligarchie ou l’adhocratie (Whitley, 1984) ne sont pas davantage une spécificité des organisations scientifiques. Quant à l’inégale distribution de la productivité scientifique (Price, 1963), on sait depuis longtemps qu’elle est d’une nature comparable à celle qui affecte les revenus. Il n’y a donc pas de rapport nécessaire entre l’idée d’une spécificité de l’activité scientifique et l’approche mertonienne qui, selon l’opinion commune, délaisse l’analyse des contenus [1].
7Par symétrie, il n’existe aucun motif d’observer une relation stable entre la conception indifférenciée de la science et la Sociology of Scientific Knowledge. Cette association est au mieux une relation historique contingente promue par le constructivisme.
8Ayant montré que le partage (activité scientifique différenciée dans le mertonisme) vs. (activité scientifique indifférenciée dans le constructivisme) n’a pas de caractère de nécessité, on peut maintenant se demander si le constructivisme n’a pas laissé dans l’ombre les aspects lui permettant de concevoir la science comme activité hautement différenciée.
9L’étude qui suit, qui relève de la sociologie historique de l’optique physique, porte sur les déterminations de la vitesse de la lumière réalisées entre 1676 et 1983. Compte tenu de la question posée, ce terrain est exemplaire pour plusieurs raisons :
101) Dans les sciences physiques, les mesures sont un produit régulier de l’activité du chercheur. Une sociologie de la mesure est donc bien placée pour cerner certains traits caractéristiques de l’activité scientifique. Les mesures de la vitesse de la lumière se prêtent aisément à une étude de ce type car toute détermination est exprimée par deux nombres (la mesure et son incertitude).
112) Bien que c soit désormais une constante, cet article n’est pas l’étude d’une constante physique, laquelle produirait des résultats trop particuliers pour être généralisés à d’autres domaines. La vitesse de la lumière, qui est aujourd’hui une constante de définition, n’a acquis le statut de constante primaire que dans les années 1940, quand l’hypothèse de la variation de c a été écartée par Birge (1941) et Dorsey (1944). C’est dire que 87 % de la série des mesures de c (268 sur 307 ans) porte sur une mesure ordinaire et non sur une constante. De plus, comme nous le verrons, rien ne distingue le comportement des physiciens par rapport à la mesure avant et après que c ait acquis ce statut de constante (primaire ou de définition). L’adoption des méthodes produisant la moindre incertitude et le rejet corrélatif de celles qui sont assorties d’une incertitude importante est un trait typique de l’attitude du chercheur par rapport à la mesure, que la mesure porte sur une constante ou non. Les mêmes choix régissent des séries de mesures relatives à des variations, telles que l’avance du périhélie de Mercure, la diminution du diamètre du Soleil ou l’augmentation de la distance Terre-Lune.
123) Un des écueils de la sociologie des sciences post-mertonienne réside dans le choix des échelles de temps. Les résultats scientifiques se construisent dans la longue durée. Étudier la science dans la courte durée – les pratiques de laboratoires, par exemple – revient à rendre compte des phases de la recherche dans lesquelles les chercheurs ne savent pas. Cela n’est pas inintéressant en soi, mais le sociologue oblitère ainsi toute référence à la rationalité et à l’objectivité qui dirige l’évolution scientifique dans le long terme. Toute détemination de c s’exprimant par deux nombres (la mesure et son incertitude), il est aisé d’inscrire l’étude des mesures de la vitesse de la lumière dans la longue durée et de corriger ce défaut.
134) On dispose d’une série pratiquement complète de mesures entre la détermination de Rømer en 1676 et les mesures laser effectuées par Woods, Shotton et Rowley en 1978. Alors que les conclusions d’une étude sont toujours discutables quand les données empiriques sont tronquées ou limitées, dans le cas présent, aucune sélection n’est nécessaire.
14Cette situation très favorable des déterminations de la vitesse de la lumière est à même de produire des résultats empiriques particulièrement stables et fiables.
2 – Les méthodes de détermination de c
15L’histoire des déterminations successives de la vitesse de la lumière peut être résumée à grands traits. Entre l’Antiquité et 1676, des arguments ont été avancés pour reconnaître la vitesse finie ou infinie de la lumière. En 1676, Rømer donne une première estimation de la vitesse de la lumière. Elle sera progressivement rectifiée par l’introduction de nouvelles méthodes : mesures optiques terrestres imaginées par Fizeau, Foucault et Michelson ; mesures électromagnétiques conçues par Weber, Hertz, Essen et Froome. Les mesures laser, développées au National Bureau of Standards, entraîneront un saut qualitatif. La stabilité de la valeur obtenue dans les expériences successives réalisées de 1972 à 1978, – c = 299 792,458 98 ± 0,0002 km/s –, conduira à transformer la constante primaire en constante de définition, sur la base de laquelle la 17e Conférence internationale des Poids et Mesures de 1983 prendra la vitesse de la lumière dans le vide comme base de définition du mètre.
16Les déterminations de c seront étudiées dans le temps long et à l’échelle de plusieurs équipes. Afin de se positionner dans le cadre de la sociologie de la connaissance scientifique, l’étude sera axée sur les valeurs de c et les marges d’incertitude associées. Il est utile de rappeler ici qu’un mesurage est un ensemble d’opérations qui a pour objet de déterminer la valeur d’une grandeur. Deux cents déterminations de c ont été collationnées dans la littérature (déterminations optiques et astronomiques : Newcomb, 1886 ; Birge, 1934 , Cohen, 1939 ; Boyer, 1941 ; Dorsey, 1944 ; Kulikov, 1949, 1964, qui donne une liste de valeurs pratiquement exhaustive jusqu’à la date de publication ; Taton, 1978 ; Tobin et Lequeux, 2002 ; Bobis et Lequeux, 2008 ; Bogaert, 2011 ; déterminations radioélectriques : Bergstrand, 1956 ; Dupeyrat, 1958 ; Strong, 1958 ; Mulligan, 1952, 1957 ; Atten et Pestre, 2002 ; déterminations laser : Mulligan, 1976 ; Eichler, 1993). Pour chaque détermination de c, nous avons collationné les éléments suivants :
171) La vitesse de la lumière dans le vide. La valeur de c a été tantôt obtenue directement, tantôt convertie à partir de la vitesse de la lumière dans l’air pour les mesures terrestres (soit une correction de + 67 km/s dans les expériences de Michelson). Dans la série Rømer, elle est obtenue à partir du retard d’émersion d’un satellite de Jupiter, temps mis par la lumière pour parcourir le diamètre de l’orbite terrestre (soit deux fois 8?12?). Dans la série Bradley, elle est déduite de la constante de l’aberration (environ 20?495 d’arc). Dans la série Weber, elle est déduite de la formule de Maxwell. Lorsque les sources citaient des valeurs différentes, elles ont été corrigées à partir des publications originales.
182) L’incertitude encadrant ces valeurs. Aucune mesure n’est exacte. L’expression du résultat d’une mesure requiert donc que la valeur du mesurande soit accompagnée d’une incertitude. La théorie de l’erreur, née des travaux contemporains de Laplace et de Gauss en 1810, a été progressivement appliquée à toutes les mesures physiques (les premières mentions d’erreur sur la série Bradley sont dues à Lindenau, Lundahl et Otto von Struve en 1842). La théorie de l’erreur a donné naissance à une science, la métrologie, dont je rappelle quelques concepts (JCGM, 2012). On distingue l’erreur aléatoire (imprévisible) de l’erreur systématique (constante dans une série de mesurages). L’exactitude d’une mesure résulte de sa fidélité et de sa justesse. La fidélité désigne l’absence d’erreur aléatoire ; la justesse désigne l’absence d’erreur systématique. L’incertitude encadre les erreurs de mesure. On distingue l’incertitude de type A, qui est estimée à partir de méthodes statistiques (très souvent l’erreur probable), et l’incertitude de type B, qui est estimée autrement. Les erreurs aléatoires sont normalement encadrés par la première. Les erreurs systématiques sont plus difficiles à détecter. Il arrive donc que la marge d’incertitude donnée à une époque ne recouvre pas la valeur vraie de c. Par ailleurs, les incertitudes sont souvent sujettes à discussion. Lorsque une incertitude a été corrigée, la correction est signalée dans la colonne auteur (Table 1). Lorsque l’incertitude n’a pas fait l’objet d’une estimation, nous ne l’avons pas recalculée. Quelques tentatives ont en effet montré que cette lacune signifiait que les mesures ne permettaient pas de traitement statistique. Ces valeurs sans incertitude associée sont représentatives d’un état « pionnier » de la recherche. Lorsque l’incertitude est disponible, elle est exprimée sous la forme d’une incertitude absolue (km/s).
Déterminations de la vitesse de la lumière
Déterminations de la vitesse de la lumière
193) L’équipe ayant procédé à la détermination. Les publications originales ne sont pas citées en bibliographie pour des raisons volumétriques. Les travaux récents peuvent être retrouvés à partir des dates et des noms d’auteur (Table 1). Pour les travaux anciens, nous avons jugé utile de compléter ces indications par le titre de l’œuvre.
204) La méthode utilisée. Pas moins de douze méthodes différentes ont été utilisées pour mesurer la vitesse de la lumière. Strong (1958, pp. 451-467) et Bortfeldt (1992, pp. 3-37) fournissent un panorama de ces méthodes. Chacune donne naissance à une « série » qui porte le nom de son inventeur. Au sein d’une même série, la méthode initiale peut connaître des améliorations et des raffinements. Par définition, les séries qui s’affrontent au temps t constituent le « front de recherche ». Ces déterminations peuvent être regroupées en grandes catégories : méthodes astronomiques (1, 2), méthodes optiques terrestres (3, 4, 7), méthode de la permittivité (5), méthodes radioélectriques (6, 8, 11), mesure du rayonnement gamma (9) et méthodes laser (12). Nous avons cependant préféré les présenter par ordre chronologique.
211. La méthode Rømer (1676-1909) est la première à avoir fixé une valeur de la vitesse de la lumière. Le satellite Io tourne avec une vitesse constante autour de la planète Jupiter. L’intervalle entre deux immersions ou deux émersions du cône d’ombre de la planète varie selon que la Terre s’approche ou s’éloigne de Jupiter. Le retard maximum est égal au temps mis par la lumière pour franchir le diamètre de l’orbite terrestre. Connaissant les éléments orbitaux de la terre, on en déduit la vitesse de la lumière. Cette méthode a fourni des résultats entachés d’une erreur importante aux xviie et xviiie siècles en raison de la mauvaise connaissance des éléments orbitaux de la Terre.
222. La méthode Bradley (1729-1962) est fondée sur la mesure de l’aberration stellaire, déplacement apparent d’une étoile dans la direction du mouvement de l’observateur. Dans le cadre de la mécanique classique, ce phénomène est interprété par la composition de la vitesse de la lumière de l’étoile avec celle de l’observateur. L’étoile de direction ? apparaît dans la direction ??. Pour une étoile au zénith, (? – ??) = v/c · sin ??. La composante principale de l’aberration est l’aberration annuelle (résultant de la révolution de la terre sur son orbite). C’est une constante fondamentale, notée ?. Assimilons l’orbite terrestre à un cercle de rayon a. La vitesse de la terre s’écrit v = 2?a/T, T étant la durée de l’année en secondes. En réécrivant la formule de l’aberration, on trouve ? = 2?a/cT. La constante de l’aberration a été calculée à partir de nombreux passages zénitaux. Elle est de l’ordre de 20?495. La vitesse orbitale de la terre v étant de 30 km/s, on en déduit la vitesse de la lumière.
233. La méthode Fizeau (1849-1902) est la première mesure optique terrestre directe. Un faisceau de lumière est rendu intermittent en passant à travers les intervalles d’une roue dentée en rotation. Le faisceau est dirigé par des lentilles collimatrices sur un miroir distant de plusieurs kilomètres. À son retour, il rencontre le disque au même point de l’espace, qu’il traverse ou non, selon qu’il tombe sur un intervalle vide ou plein. On augmente la vitesse du disque pour que le temps mis par la lumière pour parcourir le trajet optique soit égal au temps pour qu’un intervalle de la roue remplace le précédent. Connaissant la taille et la vitesse du disque, on en déduit la vitesse de la lumière. Cornu améliora ce dispositif en remplaçant la détection à l’œil nu par un enregistreur mécanique.
244. La méthode Foucault (1862-1941), développant une idée initialement proposée par François Arago, consiste à diriger un faisceau de lumière sur un miroir tournant, lequel réfléchit le faisceau sur un jeu de miroirs plans avant de faire le chemin de retour. L’image de la tache lumineuse est stable si le temps mis par la lumière pour parcourir l’ensemble du trajet optique est égal au temps pour qu’une face du miroir remplace la précédente. La vitesse de la lumière se déduit alors de la vitesse de rotation du miroir, l’image étant stable. Dans les années 1920, Albert A. Michelson proposa plusieurs améliorations de ce dispositif en utilisant des miroirs polygonaux.
255. La méthode Weber et Kohlrausch (1856-1906) détermine la vitesse de la lumière par un simple rapport entre unités électromagnétiques et unités électrostatiques. Cette découverte empirique ne prendra cependant tout son sens qu’à partir de 1864, date à laquelle Maxwell avancera l’hypothèse que la lumière est une onde électromagnétique. Une des équations de Maxwell permet d’écrire ?0?0c2 = 1. On déduit la vitesse de la lumière des valeurs de la permittivité diélectrique ?0 et de la perméabilité magnétique ?0 du vide.
266. La méthode Hertz (1888-1958) dérive de sa découverte expérimentale des ondes électromagnétiques. Des impulsions électriques alimentent un oscillateur (dipôle électrique). Face à cet oscillateur, on dispose un miroir de zinc dont la distance est réglée de manière à produire une onde stationnaire. En déplaçant un résonateur entre le miroir et l’oscillateur, on détecte les noeuds (extinction) et les ventres (étincelle) de l’onde stationnaire. La distance entre deux noeuds donne la demi-longueur d’onde ?. La fréquence ? de l’oscillateur étant connue, on en déduit la vitesse de l’onde hertzienne c = ??, qui est égale à la vitesse de la lumière. Cette méthode n’a gagné en précision qu’au xxe siècle, avec les améliorations proposées par Essen, qui ajuste la fréquence des ondes au moyen d’une cavité résonante, et par Froome, qui ajuste la longueur d’onde au moyen d’un interféromètre.
277. La méthode Karolus (1928-1967) peut être vue comme une réinterprétation des méthodes Fizeau-Foucault, dans laquelle la roue dentée ou le miroir tournant sont remplacés par une cellule Kerr (utilisant la propriété du sulfure de carbone d’être biréfringent lorsqu’il est soumis à un champ électrique). Les plaques de la cellule Kerr sont alimentées par un courant alternatif de haute fréquence qui module rapidement l’intensité du faisceau lumineux (environ 20 millions de fois par seconde). La vitesse de la lumière est mesurée par le procédé classique. En 1951, Bergstrand a amélioré la détection en utilisant un photomultiplicateur.
288. La méthode Aslakson (1949-1956) est une détermination de c dans le domaine des micro-ondes. Elle utilise la technique du radar Shoran. Un avion C émet des ondes de fréquences différentes ?A et ?B. Deux bases au sol A et B captent et renvoient ces signaux vers l’avion. L’altitude de l’avion et la distance entre les bases étant connues, on en déduit la distance de l’avion aux deux bases, AC et BC. La vitesse des ondes électromagnétiques est alors calculée sur la base des retards entre les deux trains d’impulsions.
299. La méthode Cleland-Jastram (1951) utilise des compteurs à coïncidences pour mesurer la vitesse de propagation des rayons ? émis par une source de 64Cu. Un des deux compteurs est fixé à la source. L’autre compteur est déplacé sur un banc optique. La vitesse de propagation des rayons ? est déduite de la différence des temps de transit.
3010. La méthode Rank (1952-1957) est une méthode interférentielle appliquée à des ondes multiples. Les raies d’absorption du cyanure d’hydrogène HCN font l’objet de deux mesures. Leur nombre d’onde n (inverse de ?) est déterminé à l’aide d’un étalon Fabry-Pérot. Elles donnent lieu à une mesure indépendante de fréquence. La vitesse de la lumière se déduit alors du rapport c = ?/n = ??.
3111. La méthode Florman (1955) étudie les interférences produites par deux sources d’ondes hertziennes. Soient deux récepteurs fixes R1 et R2. Les deux émetteurs E1 et E2 sont tout d’abord placés sur le segment R1R2. On détermine alors la ligne équiphase sur laquelle un émetteur peut se déplacer sans affecter la réception par les deux récepteurs. La mesure des différences de phase permet de calculer la longueur d’onde et la vitesse de phase de l’onde électromagnétique.
3212. La méthode Evanson (1972-1978), qui tire parti de l’invention du laser dans les années 1960, est la dernière à avoir été utilisée. Cette méthode de détermination consiste à mesurer séparément la longueur d’onde et la fréquence d’une raie étroite, comme la raie rouge He-Ne 633 nm. La longueur d’onde est mesurée par interférométrie. La fréquence du laser est stabilisée par une « chaîne de synthèse de fréquences », qui permet de bloquer une fréquence ?1 sur l’harmonique d’une fréquence ?2, elle-même bloquée sur l’harmonique d’une fréquence ?3, et ainsi de suite jusqu’à la fréquence connue d’un oscillateur à quartz. Cette technique de synchronisation des fréquences a permis de réduire l’incertitude de 10–9 à 10–11 en quelques années. La longueur d’onde et la fréquence étant connues, leur produit donne la vitesse de la lumière.
33Dans les années 1950 (époque à laquelle une dizaine de méthodes avaient été utilisées pour mesurer la vitesse de la lumière), la comparaison des résultats fournis par chaque méthode a suscité un débat sur ce qui était réellement mesuré. On a constaté que les vitesses mesurées n’étaient pas toujours de même nature. La distinction, introduite par Hamilton en 1839, entre « vitesse de phase » [2] et « vitesse de groupe » [3] a été introduite dans le problème (Dupeyrat, 1958, p. 559) [4]. De fait, les différentes méthodes de détermination de la vitesse de la lumière peuvent être classées selon qu’elles mesurent des vitesses de phase ou des vitesse de groupe, et selon le domaine de fréquence auquel elles s’appliquent.
34Comme on peut le voir sur ce tableau, la plupart des déterminations historiques de la vitesse de la lumière ont porté sur le domaine visible, auquel on est finalement revenu, après un long détour par l’exploration de l’électromagnétisme.
35Les déterminations successives de la vitesse de la lumière apparaissent Table 1. Elles peuvent être représentées sur un graphique, la vitesse de la lumière et la marge d’incertitude étant portées en ordonnées (Figure 1).
Convergence des valeurs de la vitesse de la lumière de 1840 à 1980
Convergence des valeurs de la vitesse de la lumière de 1840 à 1980
3 – Rectification des propositions P1… P4
36La sociologie des sciences constructiviste, qui visait à rendre compte des connaissances scientifiques, a-t-elle réalisé son programme ? Elle n’a pas, sur ce point, donné les résultats escomptés. On pourrait même dire que, loin de réaliser ce programme, elle a attiré l’attention sur des faits secondaires de l’activité scientifique en délaissant ceux qui en sont constitutifs. On peut en faire la preuve en examinant chacune des propositions P1… P4 dérivées de la thèse 0.
P1. Le chercheur consigne des énoncés factuels dont la qualité est explicitement liée aux états du monde extérieur, ce qui suffit à les distinguer des inscriptions littéraires
37Une des thèses bien connue de la sociologie des sciences constructiviste est que la science serait un « système d’inscription littéraire » [5]. La thèse va au-delà de l’idée que le chercheur passe une partie importante de son temps à écrire. Elle signifie qu’il n’y a pas de différence de nature entre un écrit scientifique, un roman ou une poésie. L’examen des inscriptions relatives aux déterminations de la vitesse de la lumière montre que l’expérimentateur consigne une mesure dans le but d’établir une hypothèse ou un résultat, en la liant à une évaluation des états du monde objectif, ce qui la distingue immédiatement de toutes les autres inscriptions littéraires.
38Considérons les mesures réalisées par Henri Perrotin entre 1897 et 1904 à l’aide de la méthode de la roue dentée de Fizeau. On trouve dans le carnet de mai 1898 une liste de mesures (page de gauche) accompagnée d’observations qualitatives (page de droite) dont voici la transcription :
« 1898 Mars 14 (16) 295,48 (5) 279,18 Moy. 287,3. Mars 24 (12) 298,56 (11) 285,57 Moy. 292,1. Avril 20 (19) 297,80 (4) 281,55 Moy. 289,7. Avril 22 (19) 300,81 (10) 283,32 Moy. 292,1. Avril 27 (8) 300,88 (1) 274,71 Moy. 287,8. Mai 9 (15) 301,62 (9) 278,16 Moy. 289,9. || 1898 Mai 13. N° 1. Deuxième et 3e assez bons. N° 2. 1e assez bon, les autres passables sauf le dernier. N° 3. Série nulle, pas de pointés. N° 4. Les 2e et dernier médiocres, les autres passables. N° 5. Série passable. N° 6. Point ondulant, très étalé, sans beaucoup d’éclat. Accroc dans l’electro-enregistreur pour la plume des dixièmes ».
40La qualité des mesures est jugée en fonction de l’instrumentation et des états du monde. Cette quête de correspondance entre les faits et les énoncés factuels est une caractéristique de la science. Si l’on nomme référentialité la propriété qu’a le texte scientifique de faire référence à la réalité, le texte scientifique est un « texte référentiel à vocation probatoire systématique » (Berthelot 2003, p. 48). Ce critère différencie immédiatement une inscription scientifique d’une inscription littéraire.
P2. Les faits scientifiques sont soumis à un processus de révision tendanciellement unidirectionnel et irréversible. Ils ne sont pas construits et déconstruits à volonté
41Dans La Vie de laboratoire, Latour et Woolgar classent les énoncés scientifiques en cinq types : conjecture (type 1), énoncé modal circonstanciel (type 2), énoncé modal (type 3), affirmation (type 4) et fait (type 5). Les chercheurs « construiraient » un fait en transformant un énoncé de type 1 en énoncé de type 5 ; le « déconstruiraient » en dégradant un énoncé de type 5 en énoncé de type 1. La « science publique » effacerait ensuite toutes les traces de ce processus de construction, en particulier de ses éléments les moins rationnels (bricolage, négociation, persuasion, etc.), occultant ainsi le caractère versatile des énoncés scientifiques [6]. Rapprochons cette thèse des données empiriques. L’étude des déterminations de la vitesse de la lumière montre qu’il n’y a eu « construction » et « déconstruction » que dans la phase préliminaire et spéculative de la recherche. La versatilité des auteurs entre les arguments aristotéliciens (vitesse infinie) et arabes (vitesse finie) s’est éteinte avec Rømer. Dès qu’une estimation numérique a été proposée, la détermination de la vitesse de la lumière est rentrée dans un processus irréversible, dont voici les propriétés essentielles.
421) Un argument spéculatif s’efface devant une détermination quantitative. Prenons la première détermination attribuée à Rømer. Les retards d’émersion des satellites de Jupiter ont été observés à l’Académie des Sciences à partir de 1671. Le premier document écrit est une note de Cassini du 22 août 1676, dans laquelle l’émersion du 16 novembre prochain est prévue avec un retard de dix minutes. La note autographe est perdue, mais il en existe deux copies (Bobis et Lequeux 2008). C’est sur cette base que Rømer defendra la thèse de la « propagation successive de la lumière » (que Cassini refusera parce qu’il ne comprendra pas l’origine des retards). En 1678, alors qu’il rédige son Traité de la lumière (1690), Huygens, partisan de la thèse de Rømer, en donnera une estimation numérique : « La vitesse de la lumière est plus de six cens mille fois plus grande que celle du son » (1690, p. 9), soit 230 000 km/s. L’hypothèse de la vitesse infinie de la lumière sera défendue une dernière fois en 1707 par Fontenelle. Ce n’est pas par nostalgie du temps où l’on discourait de la nature sans faire d’observation ni calcul. Fontenelle doutait de l’idée Rømer à cause de son inadéquation aux données d’observation. Il objecte que ni Rømer, ni Maraldi II, n’ont détecté de variation dans le retard d’émersion des satellites de Jupiter. Or, la Terre et Jupiter étant sur des orbites elliptiques, le retard d’émersion ne devrait pas être constant. Ne sachant pas que cet effet était négligeable en raison de l’imprécision de la mesure du temps et de la faible excentricité de l’orbite terrestre, Fontenelle conclut : « Il paroît donc qu’il faut renoncer, quoique peut-être avec regret, à l’ingénieuse et séduisante hypothèse de la propagation successive de la lumière » (1707, p. 80). Il est important de noter que Fontenelle ne retourne pas aux arguments qualitatifs de Kepler, de Descartes ou de Hooke. À partir de 1676, l’histoire de la vitesse de la lumière est rentrée dans un régime spécial, dans lequel la spéculation n’a plus cours.
432) Les déterminations quantitatives brutes (i.e. sans incertitude) s’effacent devant les mesures assorties d’une marge d’incertitude. Ainsi, dès que les déterminations de l’aberration stellaire (série Bradley) ont été assorties d’une estimation de l’incertitude, les valeurs produites par Rømer ont été regardées comme étant indicatives d’un ordre de grandeur (et comme étant représentatives d’un état passé des recherches).
443) Une méthode nouvelle est abandonnée lorsqu’elle produit des valeurs assorties d’une incertitude très supérieure à celles qui sont obtenues sur le front de recherche. En 1955, Florman produit un résultat affecté d’une incertitude de ± 3,1 km/s, contre ± 0,3 km/s par Bergstrand en 1951. En 1951, Cleland et Jastram obtiennent une incertitude de ± 15 000 km/s contre ± 0,3 km/s par Bergstrand la même année. Comment ces deux nouvelles méthodes auraient-elle pu rester dans la course ? Le choix de la moindre incertitude n’est pas propre à l’optique physique : c’est un principe métrologique. Bevington et Robinson écrivent que, au fur et à mesure qu’une expérience est répétée, « les résultats tendent progressivement et asymptotiquement vers une description correcte des événements » (2003, p. 1).
454) Lorsque une méthode parvient à réduire significativement l’incertitude sur le front de recherche, les méthodes qui produisent des valeurs à l’extérieur de la marge d’incertitude sont abandonnées. La méthode Foucault a supplanté les séries Rømer, Bradley et Fizeau en 1927 (± 20 km/s). La méthode Hertz a éclipsé les séries Foucault, Weber et Karolus en 1947 (± 3 km/s). La méthode Bergstrand a devancé les séries Hertz, Aslakson, Rank, Cleland, Florman en 1957 (± 0,16 km/s). La série Evenson a définitivement supplanté toutes les autres séries en 1972 (± 0,0011 km/s), avec une réduction d’incertitude d’un facteur 100 sur le front de recherche, résultat encore amélioré en 1978 (± 0,0002 km/s). Cette sélection des méthodes est à l’origine de la convergence des mesures vers la vraie valeur y = c, d’où la distribution asymptotique des mesures (Table 1, Figure 1). Mais comme une méthode supplante une autre méthode parce qu’elle est assortie d’une moindre incertitude, on observe parallèlement une tendance à la diminution des barres d’erreur associées aux mesures (Table 2, Figure 2). La relation directe entre la convergence des valeurs et la réduction de l’incertitude établit le caractère tendanciellement unidirectionnel et irréversible de la révision des connaissances scientifiques.
Réduction de l’incertitude dans la mesure de c de 1880 à 1980
Réduction de l’incertitude dans la mesure de c de 1880 à 1980
Progrès accomplis dans la réduction d’incertitude de c
Progrès accomplis dans la réduction d’incertitude de c
P3. Les hypothèses, et les séries qui les portent, sont départagées par les tests et par l’exercice collégial de la critique rationnelle, fondement de la structure normative de la science. Elles ne sont pas négociées
46Il est difficile de lire dans l’enchaînement des méthodes de détermination de la vitesse de la lumière le résultat d’une négociation désordonnée [7]. Les données montrent qu’une méthode de mesure m1 supplante une méthode de mesure m2 si elle fournit une incertitude ?1 inférieure à ?2. C’est sur cette base que les hypothèses des années 1930 d’une variation séculaire de la vitesse de la lumière ont été éliminées. La première postulait une décroissance linéaire de 4 km/s par an. Elle a été soutenue par Gheury de Bray (1927), malgré la protestation de Cornu contre la réécriture de son résultat. Edmonson (1934) a formulé l’hypothèse d’une variation sinusoïdale de c ayant une période d’environ 40 ans. Wold (1935) a proposé un modèle linéaire. Ces hypothèses ont été balayées dans les années 1940, lorsque l’incertitude a été réduite d’un facteur dix (Birge, 1941 ; Dorsey, 1944).
47À mesure que les méthodes s’affinent, les valeurs s’approchent asymptotiquement de la valeur vraie. On ne peut donc exclure que, dans une période où l’incertitude est grande, des mesures consécutives varient dans le même sens dans l’intervalle de confiance, donnant ainsi l’illusion d’une baisse tendancielle de c. C’est principalement sur la base de la série Bradley que cette conviction a été acquise. La comparaison des séries montre que cette baisse est fortuite : les séries Foucault, Karolus, Rank et Evanson sont croissantes ; les séries Rømer, Weber et Hertz ne sont ni croissantes ni décroissantes.
48Dès que l’incertitude est réduite, il est impossible de revenir en arrière. Appliquons ces hypothèses aux données de la série Evanson (incertitude comprise entre ± 0,0002 et 0,0011 km/s). Selon Gheury de Bray (1927), c aurait dû décroître de 24 km/s entre 1972 et 1978. Cette valeur est 16 000 fois supérieure à la fluctuation enregistrée entre les deux dates. Selon Edmonson (1934), la vitesse de la lumière dans le vide serait donnée par l’équation c = 299 885 + 115 sin 2?/40 (t – 1901), d’où c1978 = 299 909,097. La différence de + 116,64 km/s avec la valeur expérimentale ne rentre pas dans la marge d’incertitude. Pour Setterfield (1981), la vitesse de la lumière décroît exponentiellement. Ses données sont biaisées. Premièrement, il fixe la valeur de Rømer à 301 300 ± 200 km/s, alors que Kulikov (1964, p. 57), dont il reprend les valeurs, donne 215 000 km/s. Deuxièmement, le résultat de Rømer n’est assorti d’aucune incertitude. Dans les Adversaria, Rømer dit seulement que la lumière met une minute pour parcourir 1091 diamètres terrestres. Fixant lui-même le diamètre de la terre à 3 000 lieues (parisiennes ?) dans le Journal des Sçavans du 7 décembre 1676, on en déduit une vitesse de la lumière égale à environ 212 000 km/s. Dans les Comptes-Rendus de l’Académie des Sciences, Fontenelle indique que Rømer a trouvé une vitesse de la lumière de 48 203 lieues communes de France par seconde, soit environ 214 000 km/s. Les historiens retiennent plutôt cette dernière valeur, dont l’unité est précisée, soit une valeur arrondie à 215 000 km/s (sans marge d’incertitude). Le premier point de Setterfield est donc situé à 86 300 km/s de la courbe. La réduction d’incertitude invalide donc toutes les hypothèses d’une variation de c.
P4. Un chercheur peut utiliser des stratégies de persuasion (vs. de conviction) ; celles-ci n’arracheront pas durablement le consentement de ses pairs s’il déroge aux normes de scientificité
49Considérons la longue série Bradley, composée de 60 déterminations consécutives entre 1729 et 1927 (auxquelles nous avons ajouté les déterminations 1927-1961 pour les besoins de la discussion). Cette méthode ayant été beaucoup utilisée, on pourrait croire que des routines fines ont été mises au point et que les astronomes sont parvenus à réduire drastiquement la marge d’incertitude. Or toutes les valeurs de cette série présentent une incertitude importante. Supérieure à ± 250 km/s en 1842, elle est encore de ± 90 km/s en 1961.
50La meilleure valeur de la constante de l’aberration (? = 20?5120 ± 0?0031), équivalant à c = 299 560 ± 45 km/s, a été obtenue par Konstantin A. Kulikov, en calculant la moyenne pondérée de 28 542 observations faites à l’observatoire de Pulkovo entre 1915 et 1929 [8]. On peut douter de l’incertitude indiquée car toutes les déterminations ultérieures sont assorties d’une incertitude supérieure. Voyons la méthode suivie. On pose un système d’équations conditionnelles dont chaque ligne exprime la latitude vraie ?0 en fonction de la latitude observée ? et de plusieurs termes correctifs : d? (déclinaison), d?? (mouvement propre en déclinaison), dN (nutation), d? (écart à la valeur adoptée de la constante de l’aberration ?c), ? (parallaxe stellaire). On résout le système d’équations, en faisant disparaître les inconnues ?0 et d?, ce qui donne d?, dont on déduit la constante ? = ?c + d? (Kulikov, 1964, pp. 89-91). Malgré les corrections apportées, le résultat de Kulikov apparaît biaisé par une erreur de – 232 km/s. L’incertitude a donc été largement sous-estimée.
51Doit-on alors conclure que les astronomes de Pulkovo auraient fait admettre la viabilité de leur programme en recourant à des stratégies de persuasion ? [9] Pour comprendre pourquoi cette hypothèse n’a guère de sens, il faut revenir sur un point de métrologie. La grande lunette zénithale de Pulkovo ZTF-135 (D = 135 mm, f = 1760 mm), conçue par Freiberg en 1904 sur le modèle VZT-1 de Wanschaff-Zeiss de 1898, était un instrument de première classe (Sobolev, 2005, p. 171). La résolution angulaire théorique d’un instrument, qui est limitée par le rayon de la tache de diffraction, s’écrit ? ? ?0/D, soit ? ? (122/Dmm)? pour ?0 = 510 nm. En négligeant la turbulence et les aberrations géométriques, cette lunette avait une résolution de? ? 0?904 (environ une seconde d’arc), valeur 292 fois supérieure à l’incertitude donnée par Kulikov (± 0?0031). La précision apparente du résultat publié par Kulikov est donc un artefact statistique des 28 542 observations faites à l’observatoire de Pulkovo. Or, des mesures fidèles ne sont pas nécessairement exactes : elles peuvent être faiblement dispersées autour d’une moyenne qui diffère de la valeur vraie. En dépit des corrections, toutes les perturbations ne peuvent être éliminées [10]. Si ces perturbations véhiculent des erreurs systématiques, elles ne seront pas détectées par le traitement statistique. C’est toute la limite de cette méthode qui misait exclusivement sur la répétition des observations pour réduire l’incertitude. Il n’y a là aucune stratégie de persuasion. La seule chose frappante dans l’attitude des astronomes de Pulkovo, c’est la confiance excessive dans la capacité de 28 000 observations à produire un résultat exact.
52Mais pourquoi les astronomes de Pulkovo ont-ils donc planifié un tel travail de titan ? En 1915, au début de la campagne d’observation, la mesure de c qui fait autorité est celle de Newcomb 1882 (± 30 km/s) qui n’a pas réduit de moitié l’incertitude de la valeur obtenue par Nyrén et Wagner à Pulkovo en 1879 (± 50 km/s). Par ailleurs, le Service international de la latitude a préconisé l’usage de la lunette zénithale de Wanschaff dans chaque observatoire du réseau, dont Pulkovo, et cet instrument était parfaitement adapté à l’étude de la constante de l’aberration. Par conséquent, tout incitait les astronomes à ne pas abandonner la méthode qui avait été utilisée à Pulkovo, de Struve à Oleksandr Orlov, dont Zimmerman fut l’élève direct (Rikun, 2005, pp. 41-42). On pouvait espérer surpasser la valeur de Newcomb, en multipliant les observations et en augmentant la résolution du ZTF-135 (D = 135 mm, ? ? 0?904) par rapport au VZT-1 de Wanschaff (D = 85 mm, ? ? 1?435). Cette décision méthodologique n’avait rien d’irrationnel en 1915. En 1929, à la fin de la campagne d’observation, la situation a changé totalement. Entre temps, d’autres mesures de c ont été publiées. En 1927, Michelson a réduit l’incertitude à ± 4 km/s, si bien que la course contre l’incertitude ouverte sur le front de recherche voit la série Foucault (± 30 km/s, puis ± 4 km/s) prendre la main sur la série Bradley (± 50 km/s).
53Comparons plus précisément les deux séries Bradley et Foucault (Figure 3). Dans la série Foucault, Michelson, aidé de Pease et Pearson obtiennent ± 11 km/s en 1933, résultat assez médiocre à cause de l’utilisation d’un tube à vide partiel, sensible aux variations de température. Birge obtiendra ± 4 km/s en 1941. Au total, l’incertitude de la méthode Foucault a été réduite d’un facteur 125 en 79 ans (1862-1941). Par comparaison, dans la série Bradley, Romanskaja obtient ± 100 km/s (± 0?007) en 1941, à partir de 14 783 observations réalisées à la grande lunette zénithale de Pulkovo. Guinot ne fera pas mieux : ± 120 km/s (± 0?008) en 1959, ± 90 km/s (± 0?006) en 1961. Au total, l’incertitude de la méthode Bradley a été réduite d’un facteur 3 en 145 ans (1816-1961). Ces rapports (1.58 contre 0.02) distinguent aisément les deux séries : une méthode dont la marge d’incertitude se réduit rapidement et dont les valeurs présentent un comportement asymptotique (série Foucault) prendra inévitablement le pas sur une méthode dont les valeurs fluctuent sans réduction de l’incertitude (série Bradley). Même si un « programme de recherche » n’est pas abandonné dès la première critique (Lakatos 1994), le succès scientifique se traduit par l’entrée sur le front de recherche de nouvelles séries qui en chassent d’autres. Rassemblons les deux séries et déterminons la date à laquelle l’une a pris le pas sur l’autre. Les deux séries se croisent en 1927, quand Michelson donne une valeur de c à ± 4 km/s. La méthode de l’aberration stellaire ne pouvant plus rester dans la course, elle fut contrainte de « passer la main » aux autres séries.
Comparaison des séries Foucault-Bradley
Comparaison des séries Foucault-Bradley
54Le graphique montre cependant que des recherches sur la constante de l’aberration ? ont eu lieu jusque dans les années 1970. Est-ce le signe que les astronomes se sont arcboutés sur leur méthode sans tenir compte du progrès des mesures terrestres ? Il n’en est rien. Dans les années 1920, on lisait encore que la vitesse de la lumière pouvait être calculée à partir de la constante de l’aberration et de la vitesse de la terre. Dix ans plus tard, on lit : « La vitesse de la lumière est bien connue, il suffit donc de déduire expérimentalement la constante de l’aberration pour connaître la parallaxe solaire » (Dufour 1934, p. 121). Entre les deux dates, les astronomes ont pris une décision méthodologique. Ils ont décidé d’abandonner la mesure de c aux physiciens, en tirant parti de la mesure de Michelson. Ils tenteront alors de préciser certaines valeurs liées à la constante de l’aberration. La parallaxe solaire ?? est l’angle sous lequel le rayon de la terre est vu depuis le soleil. En notant a la distance des centres de la terre et du soleil, R0 le rayon équatorial de la terre, sin ?? = R0/a. Sachant que a est donnée par la formule de l’aberration a = ?Tc/2?, il vient ?? = arcsin (2?R0/?Tc). L’importance de ?? tient au fait qu’une incertitude de 0?01 sur la parallaxe solaire entraîne une incertitude d’environ 30 rayons terrestres sur la valeur de l’unité astronomique et, par suite, sur l’estimation de toutes les distances dans l’univers.
55La détermination de c en 1927 a donc eu des conséquences importantes en astronomie. Elle a mis fin à un programme de recherche vieux de deux siècles. Elle y a permis des développements nouveaux, basés sur l’introduction d’une mesure précise, quoiqu’alors encore perfectible, de la vitesse de la lumière.
56Ces développements avaient été imaginés plus tôt, mais les connaissances de l’époque n’étaient pas suffisantes pour les mettre en œuvre. Dans une note des Comptes-Rendus de l’Académie des Sciences de 1862, Foucault détaille ainsi les conséquences que peut avoir sa détermination sur le calcul de l’aberration stellaire et de la parallaxe. Il apparaît assez naturel que Foucault s’engage dans cette voie. En 1850, il a levé un premier obstacle en montrant que la lumière se propage plus vite dans l’air que dans l’eau, un résultat fondamental qui réfute la théorie de l’émission de Newton, et met un terme à un siècle et demi de débat. La théorie de l’émission offrait une explication alternative de l’aberration stellaire, qui, du coup, se trouve invalidée. Mais Foucault devait affronter un deuxième obstacle, l’éther, qui ne cédera qu’après sa mort. La théorie de l’éther reposait sur l’idée que les ondes lumineuses doivent se propager dans un milieu subtil. Elle prédisait que la vitesse de la lumière était c–v quand la terre se meut dans un sens par rapport à l’éther, et c+v lorsqu’elle se déplace en sens contraire sur son orbite, à six mois d’intervalle. La vitesse de la lumière pouvait donc ne pas être constante. Et on ne pouvait le savoir que si l’incertitude sur c passait un jour sous la barre des ± 30 km/s (valeur de la vitesse orbitale de la terre). Avec ± 500 km/s, la détermination de Foucault était insuffisante [11]. C’est pourquoi la réinterprétation de l’aberration stellaire et de la parallaxe solaire n’a pu être entreprise qu’après 1927 (Michelson 299 796 ± 4 km/s). C’est la réduction de l’incertitude qui a permis ces développements.
4 – Esquisse d’une sociologie internaliste des sciences
57L’étude des déterminations successives de la vitesse de la lumière entre 1676 et 1983 établit quatre propositions P1… P4. Ces propositions définissent une approche alternative en sociologie des sciences en intégrant certains acquis de l’épistémologie et de l’histoire des sciences :
58P1. Le chercheur consigne des énoncés factuels dont la qualité est explicitement liée aux états du monde extérieur, ce qui suffit à les distinguer des inscriptions littéraires.
59P2. Les faits scientifiques sont soumis à un processus de révision tendanciellement unidirectionnel et irréversible. Ils ne sont pas construits et déconstruits à volonté.
60P3. Les hypothèses, et les séries qui les portent, sont départagées par les tests et par l’exercice collégial de la critique rationnelle, fondement de la structure normative de la science. Elles ne sont pas négociées.
61P4. Un chercheur peut utiliser des stratégies de persuasion (vs. de conviction) ; celles-ci n’arracheront pas durablement le consentement de ses pairs s’il déroge aux normes de scientificité.
62Le contenu même de ces propositions explique pourquoi le constructivisme a toujours demandé que l’anthropologue fasse fi des discours indigènes (e.g. Latour et Woolgar 1988, pp. 45-46, p. 88). S’il tenait compte de ces discours indigènes, il ne pourrait pas affirmer que le chercheur « négocie » ses résultats ou « persuade » ses pairs à l’aide d’inscriptions littéraires. Des critiques ont déjà été adressées à cette anthropologie qui ignore la langue de la tribu étudiée (Lemaine, 1983). Nous n’ajouterons rien sur ce point. Les propositions réécrites ne constituent pas un programme au sens des manifestes publiés depuis une trentaine d’années (« Strong Programme », « Empirical Programme of Relativism », « Actant-Network Theory »). Elles se contentent d’énoncer quelques principes empiriquement fondés que la sociologie des sciences contemporaine ne devrait pas ignorer.
63La Sociology of Scientific Knowledge a produit, en raison de son orientation relativiste et constructiviste, des résultats incompatibles avec les propositions P1… P4. Se pose alors la question de savoir comment qualifier une sociologie des sciences compatible avec les propositions P1… P4. Si l’on se rapporte à une distinction classique en histoire des sciences, on pourrait la nommer sociologie internaliste des sciences [12]. En effet, la sociologie des sciences post-mertonienne a tenté de déterminer causalement les connaissances scientifiques par le contexte social (Bloor), d’établir comment les énoncés scientifiques sont stabilisés par les procédures locales au sein du core set (Collins), ou de montrer que les énoncés ne se distinguent en rien des crédits de recherche, des chercheurs ou des bouteilles d’oxygène, dès lors qu’ils font partie du même acteur-réseau (Latour). Même quand ces recherches se détournent des déterminants macrosociaux pour expliquer la science par le contexte immédiat de production, elles ne relèvent pas de l’internalisme [13]. Premièrement ces études attirent l’attention sur des faits qui n’ont pas toujours de rapport avec les caractères distinctifs de la science (de la panne d’électricité à la négociation des preuves scientifiques) ; deuxièmement ces études postulent qu’au sein du core set, les connaissances scientifiques sont déterminées par des aspects cognitifs, techniques, matériels, sociaux et politiques, explication incompatible avec la définition de l’internalisme par Canguilhem. Cette sociologie des sciences relève donc de l’externalisme, au sens que les faits scientifiques sont expliqués par le contexte – immédiat ou global – dans lequel se déroule l’activité scientifique. Mais en faisant de l’activité scientifique une activité comme une autre, dans laquelle le bricolage, l’erreur et la persuasion occupent une place essentielle, la sociologie constructiviste et relativiste a attiré l’attention sur des aspects secondaires de la science. Par comparaison, une sociologie internaliste des sciences devrait se donner pour objectif d’interroger les aspects les plus spécifiques de l’activité scientifique, qui caractérisent la science en tant que science.
64J’en donnerai une illustration sur le concept de compétition scientifique. Partons de la proposition P2 : les connaissances scientifiques sont soumises à une révision tendanciellement unidirectionnelle et irréversible du fait que la réduction d’incertitude et la convergence des valeurs sont concommitantes. La convergence de méthodes parallèles a souvent été prise pour un signe de « robustesse » (Wimsatt, 1981) de la valeur de la vitesse de la lumière : plus les méthodes sont indépendantes les unes des autres, plus la concordance des résultats est significative. Les physiciens ont bien perçu le fait : rappelons qu’une des premières mises en œuvre du concept de robustesse est due à Morley, le collaborateur de Michelson. Toutefois la robustesse ne suppose pas un usage indifférencié des méthodes. À un instant donné de la recherche, seules certaines méthodes peuvent contribuer à rendre le résultat robuste : il faut pour cela qu’elles soient assorties d’une incertitude égale ou inférieure à celle de la meilleure détermination connue (ce qui réduit drastiquement le spectre des méthodes utilisables). Ainsi se trouvent enchaînés robustesse, réduction de l’incertitude et compétition scientifique.
65La compétition scientifique est définie ainsi par Lemaine, Matalon et Provansal : « il s’agit de parvenir au but le premier, d’obtenir, avant les autres, un résultat satisfaisant dans un domaine déterminé » (1969, p. 140). Elle fait fond sur le but du chercheur d’être reconnu prioritaire dans le traitement d’une question. Le chercheur estimerait « d’une part, les chances d’existence d’une solution et, d’autre part, les chances d’arriver au but le premier étant donné la difficulté du problème et l’intensité de la compétition » (1969, p. 141). La compétition débouche soit sur une lutte pour la suprématie lorsque les compétiteurs ne peuvent pas sortir du domaine auquel ils ont été assignés ; soit sur la coexistence pacifique si une partie des chercheurs parviennent à explorer de nouveaux territoires. L’invention d’un nouveau domaine de recherche diminuerait l’intensité de la concurrence. Dans la conclusion d’une étude portant sur mille chercheurs américains, Hagstrom (1974) montre que soixante pour cent d’entre eux ont déjà été dépassés par un concurrent au moins une fois dans leur carrière. La compétition aurait des aspects néfastes et des aspects bénéfiques. La compétion conduirait les chercheurs à être plus réservés dans la diffusion des résultats. Elle augmenterait la productivité (en mettant une question au centre du débat) et la diffusion des connaissances (en faisant connaître de nouvelles idées et en stimulant le travail intensif). Ces recherches ont été prolongées par Mulkay et Edge (1976) dans une étude des groupes de radioastronomes de Cambridge et de Jodrell Bank. Les auteurs insistent sur l’interdépendance entre compétition, estimation des chances de succès et investissement de nouveaux domaines.
66Rappelons tout d’abord qu’il existe des formes classiques de compétition en science. Celles qui conduisent à déposer une demande de crédits ou à viser l’obtention d’un prix scientifique sont de ce type. Les bénéfices ne seront pas partagés.
67Mais il existe une autre forme de compétition scientifique, à la fois plus répandue et plus imperceptible : celle qui fait que le chercheur est, dans l’acte même de produire des connaissances, un concurrent de ses pairs. Cette compétition se spécifie en émulation (latin æmulatio) pour deux raisons principales : l’une terminologique, l’autre factuelle. Première raison : le mot émulation a un sens plus précis que compétition. Alors que la compétition désigne toute rivalité entre des personnes visant un même but, les moyens étant indéfinis, l’émulation désigne le fait d’égaler, et si possible surpasser, un modèle (latin æmulor : imiter, prendre pour modèle, chercher à égaler, d’où rivaliser). Or c’est bien une émulation qui est observée sur le front de recherche, et non une forme indéfinie de compétition. Deuxième raison : les données relatives à la mesure de la vitesse de la lumière laissent apparaître trois registres de compétition : entre plusieurs séries (obtenir un résultat meilleur que les équipes utilisant d’autres méthodes), à l’intérieur d’une même série (obtenir un meilleur résultat que les équipes qui utilisent la même méthode), avec soi-même (obtenir un résultat meilleur que les précédents). Ce dernier cas est attesté par les chercheurs qui ont continué à perfectionner un dispositif expérimental et ont ainsi publié successivement plusieurs valeurs de c (Table 1 : Michelson (7 valeurs), Nyrén (6), Doolittle (4), Cornu (3), Perrotin (3), Froome (3), etc.). Étant donné que les trois registres décrivent un même phénomène aux participants près, et que le troisième registre ne relève pas d’une compétition au sens ordinaire du terme, le terme de compétition scientifique est inapproprié pour rendre compte de la forme de concurrence la plus répandue au sein de la cité scientifique.
68Par ailleurs, on a montré que la compétition scientifique n’excluait pas la coopération scientifique (Lemaine et al., 1976 ; Rudwick, 1985 ; Hull, 1990). Que disent nos données sur ce point ? Prenons deux déterminations de la vitesse de la lumière :
(1) ? = 2?a/cT (constante de l’aberration stellaire, série Bradley)
(2) ?0?0c2 = 1 permittivité et perméabilité du vide, série Weber)
70Les relations (1) et (2) ont été longtemps utilisées pour inférer c à partir de la mesure des autres variables. Or, aucune des deux séries n’est sortie victorieuse dans la détermination de c. Par conséquent, dès qu’on a disposé sur le front de recherche d’une valeur de c assortie d’une incertitude inférieure à celle qui était produite par ces séries, ces équations ont été lues à rebours [14]. C’est la connaissance de c qui a permis de préciser les valeurs de la constante de l’aberration et de la parallaxe solaire, et de fixer les valeurs de ?0 et de ?0 comme constantes universelles. Cette diffusion de la valeur de c dans l’édifice de la physique a touché tous les domaines où intervient la vitesse de la lumière : équations relativistes, rayonnement du corps noir, quantification de l’énergie, effet Cerenkov, effet Doppler-Fizeau, etc. Sans ces relations, la valeur de c serait restée sans effet sur ces domaines. Mais parce que ces relations existent, tous les chercheurs ont tiré un bénéfice intégral – sans partage – de la connaissance produite. Se pose la question de savoir comment qualifier ce type d’activité.
71Des conduites associant des aspects de coopération et de compétition ont été décrites dans les sciences sociales sous les noms de partenariat concurrentiel (associés mettant en commun leur efforts en vue de réaliser un but commun, chacun essayant de faire prévaloir ses intérêts d’une façon opportuniste) ou de coopétition (compétiteurs acceptant de coopérer sur un segment d’activité, pour limiter la concurrence au dernier segment, porteur d’intérêts majeurs). Dans le premier cas, l’individu parvient capter une partie des intérêts qui devaient revenir à son partenaire. Dans le second, on observe une forme de compétition classique sur le dernier segment. Partenariat concurrentiel et coopétition supposent donc l’existence de bénéfices propres, qui ne sont pas mis en commun par les concurrents. C’est pourquoi l’activité scientifique – qui comprend des aspects de compétition et de coopération – n’est pas réductible au partenariat concurrentiel ou à la coopétition. En effet, quelle que soit son implication dans le travail scientifique, chaque chercheur retirera le bénéfice intégral de la connaissance produite sur le front de recherche. Il apparaît que cette émulation redistributrice est irréductible à la compétition qui règne sur les marchés ou dans l’arène politique.
Conclusion
72Cet article s’est donné pour but de contribuer au débat sur les méthodes de la sociologie des sciences à partir d’une étude des déterminations successives de la vitesse de la lumière. Un des traits distinctifs de la science étant de produire des mesures, une sociologie de la mesure nous a paru à même de révéler certains caractères qui font de la science une activité hautement différenciée.
73Les méthodes de détermination de la vitesse de la lumière répondent avec difficulté aux leitmotive de la sociologie des sciences constructiviste. Le thème de l’inscription littéraire est si général qu’il ne capte pas les caractères propres des inscriptions scientifiques. La tendance unidirectionnelle de la révision des valeurs établit que les énoncés scientifiques ne sont pas construits et déconstruits à volonté. L’attachement à une méthode, qui pourrait dépendre de stratégies de persuasion, disparaît dès qu’elle produit une incertitude trop grande au vu des standards contemporains. Enfin, la convergence des valeurs et le choix systématique des méthodes assorties de l’incertitude la plus petite récusent l’importance de la négociation en science. Inscription littéraire, jeux de construction-déconstruction, persuasion et négociation ne fournissent donc pas une caractérisation très pertinente de l’activité scientifique.
74Chacune des propositions P1… P4 a été réécrite de manière à correspondre aux faits historiques relatifs aux déterminations successives de la vitesse de la lumière. Nous avons, en prenant appui sur ces propositions réécrites, présenté une esquisse de sociologie internaliste des sciences qui se donne pour objet d’interroger les aspects de l’activité scientifique qui caractérisent la science en tant que science.
75Au sceptique qui douterait des résultats présentés, et de l’esquisse qui en est tirée, on rappellera que ces résultats ne s’arrêtent pas au cas de la vitesse de la lumière. La même démonstration aurait pu être faite à partir des déterminations du moment magnétique de l’électron, de l’obliquité de l’écliptique ou de l’évolution de certains rapports de grandeurs. Considérons par exemple la série réduite des valeurs du rapport de la masse du Soleil à celle de Jupiter :
76Les valeurs successives du rapport de la masse du Soleil à celle de Jupiter montrent une convergence et une réduction de l’incertitude tout à fait comparables à celles obtenues à partir des mesures de c. Ces données pourraient donc établir de la même façon les propositions P1 (référence aux états du monde extérieur), P2 (tendance unidirectionnelle de la révision), P3 (exercice collectif de la critique rationnelle), P4 (orientation normative de la science). C’est un signe de la robustesse des propositions établies dans cet article.
Remerciements
Je remercie Mario Bunge (McGill University, Montréal), Gérard Dolino (LIPhy, Grenoble), Michel Dubois (GEMASS, Paris), Yves Gingras (UQAM, Montréal), Émilien Shultz (Université Paris-Sorbonne), et les rapporteurs anonymes de m’avoir fait part de leurs remarques sur une version préparatoire de l’article. La version finale n’engage que moi.Références bibliographiques
- Atten M., Pestre D., 2002, Heinrich Hertz. L’administration de la preuve, Paris, Puf.
- Bergstrand E., 1956, « Determination of the Velocity of Light », in Flügge S. (ed.), Grundlagen der Optik/Fundamentals of Optics, Berlin, Springer, pp. 1-43.
- Berthelot J.-M. (ed.), 2003, Figures du texte scientifique, Paris, Puf.
- Bevington P.R., Robinson D.K., 2003, Data Reduction and Error Analysis for the Physical Sciences, New York, McGraw-Hill.
- Birge R.T., 1934, « The Velocity of Light », Nature, 134, pp. 771-772.
- Bobis L., Lequeux J., 2008, « Cassini, Rømer and the Velocity of Light », Journal of Astronomical History and Heritage, 11, 2, pp. 97-105.
- Bogaert G., 2011, « La mesure de la vitesse de la lumière à Nice par Henri Joseph Anastase Perrotin », Reflets de la Physique, 26, pp. 20-23.
- Boghossian P., 2006, The Fear of Knowledge. Against Relativism and Constructivism, Oxford, Oxford University Press.
- Bortfeldt J., 1992, Fundamental Constants in Physics and Chemistry, Berlin, Springer.
- Bouveresse J., 1999, Prodiges et vertiges de l’analogie. De l’abus des belles-lettres dans la pensée, Paris, Raisons d’agir.
- Boyer C.B., 1941, « Early Estimates of the Velocity of Light », Isis, 33, 1, pp. 24-40.
- Bulletin, 1916, « Oscar Backlund », Bulletin de l’Observatoire central Nicolas à Poulkovo, 7, 7, pp. 155-156.
- Bunge M., 1991/2, « A Critical Examination of the New Sociology of Science », Philosophy of the Social Sciences, 21, pp. 524-560 ; 22, pp. 46-76.
- Bunge M., 2001, Une caricature de la science. La très nouvelle sociologie de la science, Paris, Vigdor.
- Bunge M., 2012, Evaluating Philosophies, New York, Springer.
- Canguilhem, G., 1968, Études d’histoire et de philosophie des sciences concernant les vivants et la vie, Paris, Librairie philosophique J. Vrin.
- Cohen I.B., 1939, « Røemer and the First Determination of the Velocity of Light (1676) », Isis, 31, pp. 327-379.
- Collins H., 1981, « Stages in the Empirical Programme of Relativism », Social Studies of Science, 11, pp. 3-10.
- Dorsey N.E., 1944, The Velocity of Light, (Transactions of the American Philosophical Society, 34-1), Philadelphia, The American Philosophical Society.
- Dubois M., 2001, La Nouvelle Sociologie des sciences, Paris, Puf.
- Dufour L., 1934, « La parallaxe solaire », Ciel et Terre, 50, pp. 118-122.
- Edmondson F.K., 1934, « Velocity of Light », Nature, 133, pp. 759-760.
- Eichler H.J., 1993, « Measurement of the Velocity of Light », in Bergmann L. et al., Optics, Berlin/NewYork, de Gruyter, pp. 177-184.
- Foucault L., 1862, « Détermination expérimentale de la vitesse de la lumière », Comptes-Rendus de l’Académie des sciences, 55, pp. 501-503.
- Gheury de Bray M.E.J., 1927, « The Velocity of Light », Nature, 120, pp. 602-604.
- Gingras Y., 1995, « Un air de radicalisme », Actes de la Recherche en Sciences Sociales, 108, pp. 3-18.
- Hagstrom W.O., 1974, « Competition in Science », American Sociological Review, 39, 1, pp. 1-18.
- Hull D.L., 1990, Science as a Process. An Evolutionary Account of the Social and Conceptual Development of Science, Chicago, The University of Chicago Press.
- JCGM, 2012, International Vocabulary of Metrology, 3rd Edition – Vocabulaire international de métrologie, 3e Edition, JCGM.
- Kolchinskij I.G. et al., 1977, Astronomy. Biograficheschij spravochnik, Kiev, Naukova Dumka, sub voce, Baklund, Beopol’skij, Ivanov.
- Knorr-Cetina K., 1981, The Manufacture of Knowledge. An Essay in the Constructivist and Contextual Nature of Science, Oxford, Pergamond Press.
- Knorr Cetina K., 1995, « Laboratory Studies : The Cultural Approach to the Study of Science », in Jasanoff S. et al. (eds)., Handbook of Science and Technology Studies, London, Sage, pp. 140-166.
- Knorr-Cetina K., Mulkay M., 1983, Science Observed : Perspectives on the Social Studies of Science, London, Sage.
- Kulikov K.A., 1949, « Opredelenie postojannoj aberratsii po nabljudenijam na bol’shom pulkovskom zenit-telescope », Astronomicheskij Zhurnal, 26, 1, pp. 44-48.
- Kulikov K.A., 1964 [1956], Fundamental’nye postojannye astronomii, Moskva, GITTL ; trad. angl., Fundamental Constants of Astronomy, Jerusalem, Israel Program for Scientific Translations.
- Lakatos I., 1994, Histoire et méthodologie des sciences, Paris, Puf ; trad. fr. de The Methodology of Scientific Research Programmes, Cambridge University Press, 1978.
- Latour B., Woolgar S., 1986 [1979], Laboratory Life : The Social Construction of Scientific Facts, Bervely Hills, Sage, réed. Princeton, Princeton University Press.
- Lemaine G., Matalon B., Provansal B., 1969, « La lutte pour la vie dans la cité scientifique », Revue française de Sociologie, 10, 2, pp. 139-165.
- Lemaine G. et al., 1976, Perspectives on the Emergence of Scientific Disciplines, The Hague, Mouton & Co., Paris, Maison des Sciences de l’Homme.
- Lemaine G., 1983, « À propos de K. Knorr-Cetina, The Manufacture of Knowledge », L’Année sociologique, 33, 2, pp. 306-309.
- Lenoir T., 1997, Instituting Science : The Cultural Production of Scientific Disciplines, Stanford, Stanford University Press.
- Lynch M., 1993, Scientific Practice and Ordinary Action, Cambridge, Cambridge University Press.
- Merton R.K., 1973, The Sociology of Science, Chicago, The University of Chicago Press.
- Mulkay M., Edge D., 1976, « Cognitive, Technical and Social Factors in the Growth of Radio Astronomy », in Lemaine G. et al. (eds)., Perspective on the Emergence of Scientific Disciplines, La Haye, Mouton, pp. 153-186.
- Mulligan J.F., 1952 ; 1957 ; 1976, « Some Recent Determinations of the Velocity of Light », American Journal of Physics, 20, pp. 165-172 ; 25, pp. 180-192 ; 44, pp. 960-969.
- Newcomb S., 1886, « The Velocity of Light », Nature, 34, 29-32.
- Quet M., 2006, « Controverses sur la science (2005) », http ://lectures.revues.org/251 [10 janvier 2006].
- Pickering A., 1992, Science as Practice and Culture, Chicago, The University of Chicago Press.
- Ragouet P., 2002, « Différenciation, antidifférenciation : la sociologie des sciences dans l’impasse ? » Revue européenne des sciences sociales, 40, pp. 165-184.
- Raynaud D., 2003, Sociologie des controverses scientifiques, Paris, Puf.
- Rehg W., 2009, Cogent Science in Context, Cambridge, The mit Press.
- Restivo S., 1985, The Social Relations of Physics, Mysticism and Mathematics, Dordrecht, Reidel.
- Restivo S., 2005, Science, Technology and Society, Oxford, Oxford University Press.
- Rikun I.E., 2005, « Ptentsy gnezda Orlova », Deribasovskaja-Rishel’evskaja, 22, pp. 31-44.
- Rudwick M.J.S., 1985, The Great Devonian Controversy. The Shaping of Scientific Knowledge among Gentlemanly Specialists, Chicago, The University of Chicago Press.
- Setterfield B., 1981, « The Velocity of Light and the Age of the Universe », Ex Nihilo, 4, 1, pp. 38-48.
- Shinn T., 1980, « Division du savoir et spécificité organisationnelle. Les laboratoires de recherche industrielle en France », Revue française de sociologie, 21, pp. 3-35.
- Sobolev T.V., 2005, « Iz istorii bol’shogo pulkovskogo zenit-telescopa », Astronomicheskij Kalendar’ 2005, pp. 171-173.
- Storer N.W., 1966, The Social System of Science, New York, Holt, Rinehart and Winston.
- Strong J., 1958, Concepts of Classical Optics, San Francisco, W.H. Freeman.
- Taton, R. (ed.), 1978, Røemer et la vitesse de la lumière, Paris, Vrin.
- Tobin W., Lequeux J., 2002, Léon Foucault, Les Ulis, EDP Sciences.
- Vasil’evich M.A., 2011, Istorija astronomii, Glava 15-18, http://www.astro.websib.ru/astro/15/Glava15–/18/Glava18, sub voce, Kulikov, Romanskaja, Zimmerman.
- Whithley R., 1984, The Intellectual and Social Organization of the Sciences, Oxford, Clarendon Press.
- Wimsatt, W.C., 1981, « Robustness, Reliability and Overdetermination », in Brewer M., Collins B. (eds), Scientific Inquiry and the Social Sciences, San Francisco, Jossey-Bass, pp. 124-163.
- Zhukov V.Y., Sobolev T., 2002, « Tonkij master astrometrii : pulkovskij astronom V.R. Berg (1891-1942) », Astronomicheskij Kalendar’ 2002, pp. 189-191.
Mots-clés éditeurs : vitesse de la lumière, réduction d'incertitude, émulation, programmes de recherche
Date de mise en ligne : 23/01/2014
https://doi.org/10.3917/anso.132.0359Notes
-
[1]
Je me sépare ici du diagnostic courant selon lequel « pour Merton, la sociologie n’a rien à dire sur le contenu des sciences » (Ragouet, 2002, p. 167). Merton, auteur d’un programme de sociologie de la connaissance, ne doute pas du développement de la spécialité : « It seems that the sociology of knowledge has wedded these tendencies [fact finding and theories] in what promises to be a fruitful union. Above all, it focuses on problems which are at the very center of contemporary intellectual interest » (Merton, 1973, p. 40). Peut-être le diagnostic précité prend-il appui sur une phrase de Storer, dans l’introduction du même volume : « Mulkay and King have suggested that he has erred in not taking more direct account of the substantive content of science in his own formulations » (Storer in Merton, 1973, p. xxviii).
-
[2]
Quand Hertz étudie des ondes stationnaires au moyen d’un résonnateur, il mesure une vitesse de phase. La vitesse est établie par le produit de la longueur d’onde et de la fréquence c = ??. Dans ce cas, il n’y a pas d’intermittence et le contrôle porte sur le caractère stationnaire et monochromatique de l’onde.
-
[3]
Lorsque Fizeau mesure le temps de vol d’une onde entre Montmartre et Suresnes, il fonde sa détermination sur le comportement de la tête du train d’ondes, assimilable à une perturbation : il mesure une vitesse de groupe. La vitesse est établie par le rapport d’une distance et d’un temps c = x/t. Dans ce cas, le faisceau est rendu intermittent et la mesure porte sur des ondes progressives de fréquences mélangées.
-
[4]
La vitesse de phase et la vitesse de groupe ne sont égales que dans un milieu non dispersif, comme le vide. Dans un milieu dispersif, la tête du train d’onde est déformée. Les ondes précurseurs qui la composent ayant une moindre amplitude, elles ne sont pas enregistrées par le détecteur. Le signal est alors perçu avec un retard qui conduit à sous-estimer la vitesse de propagation de l’onde électromagnétique. Cette différence a un effet limité sur la mesure de la vitesse de la lumière. On a estimé que la vitesse de groupe pouvait être inférieure à la vitesse de phase de 10–5, soit environ 3 km/s. Ajoutons que lorsqu’on dit que la vitesse de la lumière ne peut pas dépasser c, il est fait référence à la vitesse de groupe car la vitesse de phase peut être inférieure ou supérieure à c. Dans certains cas, elle est infinie. Tout dépend de la relation de dispersion.
-
[5]
Cette thèse, consensuelle dans la sociologie des sciences contemporaine, est exprimée par Latour et Woolgar (1986 [1979], pp. 45, 71, 76), Knorr-Cetina (1981, p. 94), Knorr-Cetina and Mulkay (1983, pp. 9-10), Lynch (1993, p. 94), Restivo (1985, p. 85), Lenoir (1997, p. 27) et Rehg (2009, p. 72).
-
[6]
On trouvera des comptes-rendus de cette versatilité des énoncés scientifiques dans Latour et Woolgar (1986 [1979], pp. 179, 237), Knorr-Cetina (1981, pp. 4, 41), Knorr-Cetina and Mulkay (1983, pp. 61, 120), Restivo (1985, pp. 109, 120), Lynch (1993, p. 172), Lenoir (1997, pp. 5, 47-48), Restivo (2005, p. 491) et Rehg (2009, pp. 116-117).
-
[7]
La thèse de la négociation est défendue par Latour et Woolgar (1986 [1979], p. 157), Collins (1981, p. 4), Knorr-Cetina (1981, pp. 51, 66), Lynch (1993, pp. 108, 115), Knorr-Cetina (1995, pp. 152-154), Restivo (2005, pp. 253, 462, 581) et Rehg (2009, p. 75).
-
[8]
Les 28?542 observations ont été faites par N.V. Zimmerman, N.I. Dnieprovskii, A.D. Drozd, G. Maksimov, S.V. Romanskaja et V.R. Berg. Le premier a fait 3?000 observations (Rikun, 2005, p. 42). Romanskaja et Berg environ 20?000 (Pulikov, 1949) ou, selon d’autres sources, Romanskaja 23?500 à elle seule (Vasil’evich, 2011). O.N. Kramer a supervisé les calculs à l’Institut de mathématiques de l’Académie des Sciences. Le programme d’observation de la latitude semble avoir été impulsé en 1915 par Zimmerman, appuyé par Orlov et Baklund, le dernier étant alors directeur de l’observatoire (Bulletin, 1916 ; Kolchinskij, 1977 ; Zhukov et Sobolev, 2002).
-
[9]
L’hypothèse de la « persuasion » (en tant qu’elle diffère de la conviction par des arguments rationnels) est régulièrement avancée par les sociologues des sciences comme Latour et Woolgar (1986 [1979], pp. 157, 214), Knorr-Cetina (1981, pp. 51, 66), Knorr-Cetina and Mulkay (1983, pp. 9-10), Pickering (1992, p. 92), Lenoir (1997, p. 27), Restivo (2005, p. 58) et Rehg (2009, p. 72).
-
[10]
La température, la pression, l’humidité et la turbulence atmosphérique perturbent les observations. La géométrie de l’instrument varie en fonction de la température (longueur du tube optique), de l’angle de visée (flexion du tube optique). Le pointage est sensible à l’usure mécanique, surtout sur une période de quinze ans. À cela s’ajoute les approximations de calcul : interpolation graphique des coordonnées du pôle ; regroupement des valeurs sur des dates moyennes de l’année, absence de prise en compte de l’équation personnelle des chercheurs, les observations ayant été faites par plusieurs observateurs (Kulikov, 1964, p. 90).
-
[11]
À partir de 1881, Michelson tentera de mesurer le vent d’éther par interférométrie. Ces expériences, souvent décrites comme « négatives » dans la littérature, fournirent des résultats ambigüs. Le premier article s’achève par les mots : « The result of the hypothesis of a stationary ether is thus shown to be incorrect » (1881, p. 128), donnant l’avantage à l’éther de Stokes. Mais Lorenz et Pottier montrèrent l’année suivante que l’article de Michelson comportait des erreurs de calcul, ce qu’il admit. Le deuxième article commence par une critique du dispositif utilisé en 1881. Une fois les défauts corrigés, les expériences sont refaites. Michelson et Morley découvrent un décalage de 0,01 (au lieu de 0,4) fois la distance entre deux franges d’interférence. Ils font alors valoir que le mouvement du système solaire dans l’éther n’a pas été étudié et que, par conséquent, l’hypothèse de l’éther n’est toujours pas réfutée : « If there be any relative motion between the earth and the luminiferous ether, it must be small » (1887, p. 341). L’hypothèse de l’éther de Fresnel est alors rejetée au profit de l’éther de Stokes. En 1897, Michelson fait de nouvelles expériences et ne trouve pas le vent d’éther d’altitude prédit par Stokes. Il revient alors à l’hypothèse de Fresnel. Comme l’observe Lakatos (1994, p. 106), l’expérience de Michelson-Morley n’est devenue une expérience de réfutation de l’éther que vingt-cinq ans après sa publication.
-
[12]
Commentant un article de Buchdahl, Canguilhem écrit : « L’externalisme c’est une façon d’écrire l’histoire des sciences en conditionnant un certain nombre d’événements – qu’on continue à appeler scientifiques plutôt par tradition que par analyse critique – par leurs rapports avec des intérêts économiques et sociaux, avec des exigences et des pratiques techniques, avec des idéologies religieuses ou politiques (…) L’internalisme – tenu par les premiers pour idéalisme – consiste à penser qu’il n’y a pas d’histoire des sciences, si l’on ne se place pas à l’intérieur même de l’œuvre scientifique pour en analyser les démarches par lesquelles elle cherche à satisfaire aux normes spécifiques qui permettent de la définir comme science et non comme technique ou idéologie » (1968, p 15).
-
[13]
Le plus connu des promoteurs de l’étude du core set écrit : « Another part of the programme is to relate the sort of work presented here to the wider social and political structure […] The consensual interpretation of day-to-day laboratory work is only possible within constraints coming from outside that work » (Collins 1981, p. 7).
-
[14]
C’est ce que dit Kulikov, à propos des observations faites de 1915 à 1929 : « La vitesse de la lumière a longtemps été déterminée à partir de la constante de l’aberration ou de l’équation de la lumière, jusqu’à ce qu’elle puisse faire l’objet de mesures terrestres directes. Quand ces déterminations expérimentales de la vitesse de la lumière ont été suffisamment perfectionnées, sa relation à la constante de l’aberration et à la parallaxe solaire n’a plus été utilisée dans le but initial, mais à l’inverse, pour déterminer ces valeurs » (1964, p. 55).