L’évaluation de la recherche est aujourd’hui caractérisée par le recours de plus en plus systématique à des méthodes quantitatives, s’appuyant surtout sur la mesure du nombre de publications et de citations reçues par les chercheurs. Désormais largement répandues dans le monde académique, elles ont accompagné depuis une quinzaine d’années, et à des degrés divers selon les pays, la montée de la gestion technocratique et néolibérale des universités et des institutions scientifiques. Ces méthodes reposent sur l’usage d’indicateurs bibliométriques souvent mal construits ou mal utilisés, tels que « l’indice h » et les « facteurs d’impacts » des revues. Elles ont été acceptées avec une surprenante résignation par la communauté scientifique, surtout dans le monde biomédical, et parfois même accueillies avec enthousiasme par certains chercheurs et gestionnaires qui croient en leur plus grande « objectivité ». Les chercheurs en début de carrière, adoptant une posture pragmatique – et souvent peu critique – vis-à-vis de ces indicateurs, les considèrent désormais comme faisant partie des « règles du jeu » académiques. Le retour de bâton s’est toutefois fait ressentir avec la multiplication des cas d’inconduites et de manquements à l’éthique scientifique un peu partout à travers le monde. Les critiques répétées envers ces évaluations de type comptable ont cependant eu quelques effets, puisque certains organismes de recherche interdisent désormais l’usage par les comités d’évaluation des indicateurs les plus simplistes, comme le facteur d’impact des revues et « l’indice h » des chercheurs, et insistent plutôt sur l’analyse de la qualité des projets et des publications…