Notes
-
[1]
Les notions d’Open Content, Open Knowledge, Open Research… sont assez floues. Nous n’utiliserons pas Open dans cet article pour désigner des problèmes de « gratuité » et de modèle économique de l’édition, mais pour indiquer la nature contributive des pratiques de production scientifiques. Plus exactement, la proposition d’Open Research vise à étendre les pratiques contributives, intrinsèques à toute activité scientifique, à un domaine qui en est en grande partie dépourvu : les mécanismes de validation sociale des connaissances scientifiques et de l’activité des chercheurs.
-
[2]
L’accroissement des fraudes n’est pas facile à établir, faute d’une mesure directe (ORI, 2012)
-
[3]
On lira avec profit sur ce sujet le livre déjà cité de P. Suber (2012). Le livre est lui-même en libre accès : http://mitpress.mit.edu/books/open-access
-
[4]
Le principe de « wisdom of the crowds » a été développé notamment par Surowiecki (2005) qui avance l’idée que la connaissance agrégée d’un grand groupe d’individus non experts est supérieure, sous certaines conditions, à celle d’un ou de quelques experts…
-
[5]
Les publications ou les conférences internationales dans certaines disciplines.
-
[6]
Ces résultats sont similaires à ceux obtenus par la revue Nature qui a mené une expérience d’Open peer reviewing en 2006 où des articles soumis à une procédure classique de rapport anonyme ont également été publiés en ligne afin de collecter des commentaires publics et non anonymes. Seuls 5 % des auteurs ont accepté de participer à l’expérimentation et seuls 54 % des articles ont reçu des commentaires. Les éditeurs en ont conclu que les chercheurs étaient trop occupés pour consacrer du temps à cette activité et peu enclins à dévoiler leur réelle identité. Le fait que l’expérience ait été menée dans le cadre d’une revue traditionnelle introduisait un biais de sélection portant sur les chercheurs soumettant des propositions d’articles à cette revue. Cf. l’éditorial de la revue Nature, 444, pp. 971-972, 21/12/2006, ainsi que les résultats de l’expérimentation sur le site de la revue : http://www.nature.com/nature/peerreview/debate.
Introduction
1Internet et les réseaux contributifs offrent des dispositifs multiples afin de produire, formaliser, valider et accéder à des formes très diversifiées de connaissances. L’Open Content peut être défini comme la production de connaissances par une communauté d’individus qui ajoutent librement des contenus et révisent ceux des autres. Parmi ses exemples emblématiques figurent les communautés du logiciel libre et Wikipédia. Cette encyclopédie en ligne a contre toute attente survécu à la tragédie des biens communs : le nombre et la diversité des contributeurs en assurent la pérennité et la qualité, notamment grâce à un système original d’incitation et de coordination (Anthony, Smith et Williamson, 2007, Cardon et Levet, 2009).
2La question soulevée dans ce papier est de savoir si, au-delà de la transmission de savoirs déjà constitués, les modèles d’Open Content ne constituent pas un signe avant-coureur d’un changement majeur dans la production et la validation de connaissances nouvelles. À quelles conditions et sous quelle forme les principes sous-jacents au modèle de l’Open Content pourraient-ils être transposables au savoir académique ? Jusqu’à présent, la valorisation des travaux académiques s’appuie sur des dispositifs hiérarchisés et dominés par les éditeurs des revues de premier rang, les colloques de référence, ainsi que les financeurs de la recherche. L’incitation à produire de la connaissance nouvelle est de plus en plus fondée sur la fameuse règle du Publish or Perish. Or, ce productivisme menace les fondamentaux même du métier de chercheur, en substituant de manière croissante le carriérisme aux motivations intrinsèques de la recherche, à commencer par le goût de la recherche pour elle-même. De même, la course à la publication tend à encourager le conformisme et à dissuader la recherche d’originalité.
3Dans de telles conditions, un nouveau modèle que nous appellerons Open Research [1], pourrait offrir une solution pour non pas se substituer au modèle académique établi (conçu pour résister…), mais pour ouvrir une voie innovante porteuse d’un changement à terme du modèle d’évaluation des connaissances académiques. L’Open Research modifierait notamment l’espace de discussion critique (plus large et continu), ainsi que les modalités et les instances de validation des savoirs produits qui seraient davantage fondées sur la qualité de la contribution à un corpus évolutif et la crédibilité « d’administrateurs » élus par leurs pairs en fonction de leur propre comportement contributif et de la qualité de leurs révisions et critiques. Au principe de Publish or Perish, ce modèle opposerait celui de Contribution and Credibility.
4Cet article se divise en deux parties. La première examine les conditions de la crise actuelle du modèle de production de savoirs académiques et le développement inhérent d’expériences alternatives de connaissance ouverte autour du mouvement de l’Open Knowledge. La seconde partie spécifie les caractéristiques d’un modèle d’Open Research comme solution aux contradictions actuelles du modèle académique et examine le cas particulier d’une revue fondée sur le principe d’Open Peer Reviewing.
La contestation du modèle dominant de production du savoir académique
De la nécessité d’un système nouveau face à la crise du modèle dominant
Un modèle fondé sur des normes de productivité individuelle
5L’évaluation institutionnelle des chercheurs est principalement basée sur leur production individuelle (publications dans des revues classées et contributions dans des conférences dites de référence). Elle s’effectue à deux niveaux. Au niveau inférieur, elle est décentralisée et informelle : séminaires, journées d’étude, réseaux de chercheurs, conférences… Au niveau supérieur, elle est l’apanage de quelques éditeurs de revues (Elsevier, etc.), colloques de référence et financeurs publics et privés décernant prix, récompenses et subventions.
6Ce modèle conduit à concentrer le pouvoir de validation du savoir entre les mains d’une poignée d’éditeurs, de comités éditoriaux restreints et de laboratoires influents. Des éditeurs comme Elsevier ont ainsi un pouvoir très étendu allant jusqu’à la définition des programmes de recherche à travers leurs bases bibliographiques et systèmes de notation des publications (Scopus, Web of Science). Il conduit également les chercheurs à déplacer le curseur des incitations vers les motivations intéressées comme la rémunération et la carrière au détriment des motivations désintéressées comme le goût de la recherche ou le désir de contribuer au savoir collectif. Ce modèle est lié à la mise en place de normes quantifiées d’évaluation (nombre de publications, classement des revues), quantification qui se met en place dès les années 60 aux États-Unis (Pontille et Torny, 2013), à la constitution d’un job market des chercheurs à l’échelle nationale et internationale et à la nécessité pour les institutions finançant la recherche de disposer d’indicateurs de « productivité » de cette activité. Les réformes actuelles des universités et la prédominance des classements internationaux accentuent fortement cette évolution.
Les dérives du modèle dominant de production de connaissances académiques
7Le modèle génère un productivisme débridé pouvant menacer à terme la qualité des connaissances produites et la créativité des chercheurs. Les critères d’évaluation de la production (et la sélection) des jeunes chercheurs par les institutions de recherche se font essentiellement à partir des revues. Intégrant ces normes d’évaluation, les chercheurs sont incités à choisir les revues selon leur rendement institutionnel (rang de classement et facteur d’impact) et à orienter en conséquence leurs recherches. Ainsi les thématiques marginales ou risquées auront moins les faveurs des chercheurs. On l’a vu dans le domaine des projets de recherche sur l’espace où les travaux et programmes sur les planètes éloignées furent délaissés au profit de la Lune et de Mars ! Une des principales raisons avancées était que la carrière d’un jeune astrophysicien n’était pas compatible avec l’espérance de résultats issus d’expéditions lointaines. Le choix des thèmes s’effectue plus en fonction de leur rendement productif qui suppose de rester dans la norme et moins de leur intérêt scientifique (qui suppose une prise de risque sans « retour sur bénéfices » garanti). Naturellement, il existera toujours des aventuriers de la recherche qui s’affranchissent des normes dominantes mais tel ne sera pas le comportement de la grande masse des chercheurs.
8Les fraudes scientifiques sont une autre facette de l’iceberg. Elles regroupent des pratiques très diverses : utilisation de données douteuses, manipulation des résultats, voire leur invention de toutes pièces, plagiat, duplication de publications, etc. (Pontille et Torny, 2012). Une étude récente portant sur la recherche en biologie et en médecine souligne l’accélération de ce phénomène au cours de la dernière décennie, ce qui laisse supposer un lien avec le renforcement actuel des normes productivistes (Fang et al., 2012) [2]. On assiste ainsi à une contradiction croissante entre le caractère de plus en plus collectif de la production de connaissances et l’évaluation très hiérarchisée et individualisée des carrières. Cette contradiction aboutit à des effets pervers qui, à moyen terme, pourraient dégrader la qualité de la recherche au profit d’un effet volume.
Un modèle contesté
9Le modèle commence à être contesté. La contestation a surtout porté sur la concentration du système de validation du savoir académique aux mains d’une poignée de grands éditeurs mondiaux et la rente économique qu’ils tirent de cette concentration. Elle a été initiée par la pétition The cost of knowledge (thecostofknowledge.com/). Lancé en soutien du mathématicien Timothy Gowers, médaille Fields 1998, ayant décidé de boycotter les revues de l’éditeur Elsevier, ce mouvement, relayé par les grandes universités américaines, conteste la politique d’abonnement des grands éditeurs scientifiques, combinant vente liée et prix élevé des abonnements. Il la conteste d’autant plus que le coût élevé des abonnements repose sur une économie qui ne rémunère ni les chercheurs pour leurs publications, ni la plupart du travail éditorial effectué gratuitement par les pairs. Or la rente prélevée est financée par les fonds publics et pèse fortement sur les budgets des universités tandis que les barrières tarifaires et non tarifaires (droits d’auteur) restreignent la circulation du savoir scientifique. P. Suber (2012), un des leaders de l’Open Access, a beau jeu de soutenir que les revues toll-access des éditeurs ne sont pas cohérentes avec les pratiques existantes du monde scientifique (non rémunération des publications et du travail éditorial). L’Open Access est aujourd’hui soutenu aussi bien par l’administration d’Obama que par la communauté européenne ou le Royaume-Uni.
10D’autres contestations moins ouvertes et plus ciblées apparaissent à travers les échanges entre chercheurs sur les listes de diffusion. Un exemple récent dont nous avons été témoins est un débat initié par l’animateur d’une liste de diffusion en informatique (PET mailing list, http://lists.links.org/mailman/listinfo/pet) : il suggérait de restreindre les annonces et les appels à communications uniquement aux conférences « ouvertes », c’est-à-dire dont les papiers sont et demeurent librement accessibles en ligne. Pour certains, cela amènerait les éditeurs de revues et les organisateurs de conférences « propriétaires » à adopter des stratégies fondées sur plus d’ouverture. Cet ensemble de contestations donne lieu à des expériences plus ouvertes de production et de validation des connaissances académiques.
Des applications multiples de l’Open Knowledge dans le champ académique
11La connaissance est un bien collectif dont la production repose sur un régime cumulatif : chaque connaissance nouvelle se nourrit de connaissances anciennes et enrichit les connaissances futures. Ceci est notamment rendu possible par la propriété de non-rivalité de la connaissance. Il en découle que la connaissance qui est un bien commun se développe à mesure que les producteurs individuels de connaissances nouvelles les partagent. C’est sur ce constat que se fondent les débats, les projets et les travaux autour de l’Open Knowledge (Hess & Ostrom, 2007).
12Hess et Ostrom (2007) distinguent trois niveaux de mise en commun (commons) dans la production du savoir académique :
- Les groupes de petite taille (une unité de recherche) où chacun partage ses connaissances à travers les travaux de doctorants, les séminaires de recherche, les discussions informelles, etc. ;
- L’échelle plus large des conférences et les revues spécialisées dans des champs de connaissance ;
- Le niveau global de la common knowledge.
13Entre chacun de ces niveaux, la circulation de savoirs nouveaux rencontre des barrières : brevets (limitation sur l’exploitation légale), paiement (accès payant aux articles et aux bases de données), secret. Il existe ainsi différents types de menaces pesant sur la production de connaissances communes : la marchandisation (l’enclosure), la pollution (dégradation de la qualité des connaissances accessibles), etc. Un débat oppose alors deux camps sur le terrain institutionnel et plus particulièrement, celui du régime légal des droits de propriété : d’un côté, les tenants de la propriété collective (Open Content, Open Data…) supposée favorable à la production et à la circulation la plus large des savoirs ; de l’autre, les tenants de la propriété intellectuelle pour qui la production et la valorisation de la connaissance ont un coût, ce qui justifie une protection des investissements des agents qui en supportent le financement.
14La mise en commun dans le monde académique n’est pas une nouveauté car elle est consubstantielle à la manière dont les scientifiques travaillent. Merton (1973) a bien montré que le principe de l’ouverture/partage a toujours été une caractéristique intrinsèque du mode de fonctionnement des communautés scientifiques. Cette openness trouve son origine dans le fait qu’un chercheur (ou qu’une équipe) qui produit de nouveaux résultats les publie, donc les partagent avec le reste de la communauté scientifique, car il/elle reçoit en échange différentes formes de reconnaissance : nouvelles idées ou méthodes, réputation, nouvelles opportunités de collaboration, etc. (Stephan, 1996, McCain, 1991). Mais elle sert aujourd’hui d’étendard au mouvement de contestation du modèle dominant, soutenant des expériences alternatives aux objectifs variables. Car sous le vocable Open se cache des choses bien différentes, allant du libre accès au savoir scientifique aux transferts entre le monde académique et l’industrie (Gassmann et al., 2011).
15Au niveau le plus élémentaire, l’Open Knowledge renvoie simplement à l’idée d’Open Access, c’est à dire à la suppression des barrières tarifaires et non tarifaires qui font écran à un accès libre au savoir [3]. Mais l’Open Access n’affecte pas les modes de production et de validation des connaissances du modèle dominant, seulement leur circulation. C’est pourquoi il a la caution des institutions les plus officielles, y compris celle des gouvernements. À un niveau plus élaboré, certaines expériences de collaborations ouvertes cherchent à abaisser les barrières entre les 3 niveaux d’élaboration de la connaissance cités précédemment. On pense notamment à l’Open Science qui vise à faciliter les transferts de connaissances au sein du monde académique ou entre celui-ci et l’industrie ou la société civile. Pour Gassmann et al. (2011 :16)
« The open paradigm of science has just paved the way towards a new division of tasks and a new role understanding within scientific research. New links and forms of collaboration emerged within the science community itself but also between academic research and more application-oriented institutions ».
17L’exemple de l’Open Science Project (openscience.org) est assez illustratif, car il est basé sur la mise en commun d’outils informatiques par les chercheurs de cette discipline avec d’autres disciplines. Dans le monde francophone et le domaine du logiciel, citons les projets Devlog (http://devlog.cnrs.fr/) et Plume (https://www.projet-plume.org/). La mise en commun réalisée par l’Open Science intervient davantage en amont des processus scientifiques qu’en aval, au niveau des processus de sélection et de validation des savoirs. Des expériences plus poussées à ce niveau concernent l’Open Peer Reviewing.
L’Open Peer Reviewing
18Pour certaines plates-formes d’hébergement d’articles et d’études comme BioMed Central, l’Open Peer Review repose sur le fait de rendre publique l’identité des noms des rapporteurs et de publier les rapports avec la version finale de l’article. Il s’agit de corriger des défauts du processus classique induits par l’anonymat des rapports. Un certain nombre sont bien connus comme, par exemple, la « subjectivité » des éditeurs enclins à confier l’examen des papiers qu’ils ne souhaitent pas publier à des rapporteurs réputés difficiles ou qu’ils savent en désaccord avec les propositions défendues dans le papier en question. Ou encore la tentation pour les rapporteurs de plagier les travaux qu’ils examinent (ou plus simplement d’écarter des travaux concurrents des leurs). Pour minimiser ces différents biais associés à l’anonymat des rapporteurs, Williamson (2002) recommande, entre autres solutions, l’ouverture des données, à savoir la publication de l’identité des rapporteurs.
19Pour autant, le non-anonymat présente aussi des inconvénients. À commencer par la crainte de représailles que peut avoir le rapporteur ou celle d’être accusé, dans un jeu sans fin, de vouloir bloquer le travail qui lui est soumis. De jeunes chercheurs pourraient ainsi refuser de rapporter des travaux entrant dans leur champ de compétences par peur des représailles, ce qui pourrait limiter le nombre de rapporteurs et appauvrir la qualité ou la diversité des critiques et des discussions autour des travaux non publiés.
20Une version plus poussée de l’ouverture consiste à permettre à une communauté de chercheurs d’examiner et de commenter des articles soumis à publication. Fondée sur le principe de la sagesse des foules [4], cette procédure pourrait être une alternative à la publication du nom des rapporteurs prônée par des auteurs comme Williamson (2002).
21Dans cette perspective, des expériences ont été conçues et mises en place par Stevan Harnad dans les années 80 pour des revues imprimées (Brain and Behavourial Research) puis en ligne (Psycholoquy) sur le modèle d’un article suivi de commentaires à l’article puis d’une réponse aux commentaires. Une revue en ligne comme Philica qui n’est pas spécialisée accepte d’emblée toute proposition d’article qui peut ensuite être rapporté par quiconque (le reviewer est toutefois « ranké »), l’entrelacement des commentaires et des réponses étant incorporés à l’article initial et visibles par tous. Il n’y a pas de processus de sélection. La qualité et la popularité de la revue laissent à désirer, des pans disciplinaires entiers étant de plus absents. Nous nous appuierons pour soutenir notre modèle de l’Open Research dans la section suivante sur une autre revue en ligne pratiquant l’Open Peer Reviewing mais spécialisée et procédant à un processus de sélection.
Les limites actuelles à la généralisation de l’Open Knowledge
22Les expériences et les domaines d’application de l’Open Knowledge demeurent limités parce qu’ils ne s’appliquent qu’à des fonctions spécifiques de la recherche académique (l’archivage ouvert, la désanynomisation des rapporteurs ou des rapports, l’Open Peer Reviewing) ou se développent dans des disciplines (la biologie, l’astrophysique, la médecine, certains domaines de recherche appliquée orientés vers l’industrie…) où le caractère collectif de la production du savoir est déjà très affirmé.
23La généralisation de ces expériences se heurte à la prégnance du modèle dominant. Ainsi note Suber (2012), bien que l’Open Access constitue une alternative beaucoup plus cohérente avec les pratiques et l’économie actuelles du monde académique que les revues toll-access, la transition sera difficile en raison des éditeurs qui en on fait une industrie rentable. De manière plus générale, les expériences d’Open Knowledge s’inscrivent dans un environnement institutionnel et culturel de plus en plus orienté vers des normes « productivistes » (Publish or Perish), confinant ces expériences à certaines disciplines propices à leur développement ou aux processus amont de la production scientifique déjà très collectifs par nature. Selon Hess & Ostrom :
« Universities find themselves on both sides of the commons fence, increasing their number of patents and relying more and more on corporate funding of research, while at the same time encouraging open access and establishing digital repositories for their faculty’s research products ».
25Or, les problèmes de financement et la concurrence internationale à laquelle se livrent les universités tendent à faire pencher la balance du côté du modèle dominant actuel. Pour que l’Openness se généralise, il faudrait que d’autres évolutions entrent en jeu, en particulier des changements de l’environnement institutionnel dans lequel s’opère la production et la valorisation des connaissances académiques.
Le design de l’Open Research : principes et perspectives
26Nous examinons dans cette seconde section la possibilité d’un nouveau modèle en reprenant de manière plus analytique des éléments de la première section.
Les principes
27Nous définissons un mode de production de connaissances comme l’articulation cohérente d’un système d’incitations et d’un système de coordination. D’un côté, les chercheurs doivent être incités à apporter leur contribution à la constitution d’un savoir collectif. De l’autre côté, ces contributions doivent être validées par des opérations de discussion, de sélection et d’édition qui permettent de les incorporer aux corpus scientifiques. Il en va de même pour le modèle de l’Open Research. On examinera successivement son système d’incitations puis son système de coordination par différence avec le modèle actuel.
Le système d’incitation à la production scientifique
28Pourquoi les chercheurs contribuent-ils à la production de connaissances scientifiques ? Cette question a fait l’objet d’un large débat, en grande partie réactualisé par le développement de l’Open Source. Le débat repose sur la distinction déjà évoquée entre motivations intrinsèques et motivations extrinsèques (Deci, 1975), les unes reposant sur le plaisir et la satisfaction que l’on retire d’une activité, les autres sur des facteurs externes à l’activité elle-même (rémunération, contraintes sociales…). Les économistes tendent à plaider pour la domination des motivations intrinsèques, sauvant ainsi le principe de comportements utilitaristes. Ils expliquent les motivations des développeurs dans l’Open Source, comme l’effet d’une rémunération indirecte, l’effet de réputation acquis au travers de la contribution pouvant être monnayé ensuite sur le marché du travail (Lerner & Tirole, 2002). Les sociologues insistent sur la volonté des individus de répondre à un standing social ou d’accroître leur capital social. Les psychologues font davantage de place aux facteurs individuels et aux motivations intrinsèques. Les contributions des individus répondent en fait à une combinaison de motivations intrinsèques et extrinsèques, leur poids respectif variant selon le contexte et la nature de la communauté.
29Dans le domaine scientifique, les motivations intrinsèques sont importantes, c’est-à-dire désintéressées : goût pour le travail intellectuel et la recherche, satisfaction de résoudre des problèmes difficiles et d’apporter des résultats, volonté de participer à la construction d’un bien public, le savoir humain. Mais les motivations extrinsèques ne sont pas exemptes : rémunération, statut, pouvoir, carrière. La combinaison des deux correspond à la dualité de l’inscription du chercheur dans la société : coproducteur d’un bien public d’un côté, être social de l’autre. Un équilibre est nécessaire pour assurer la production scientifique. Le chercheur ne doit pas être désocialisé par une trop faible rémunération, une absence de carrière ou un statut social trop faiblement reconnu pour qu’il continue à produire. La « marchandisation » du savoir, c’est-à-dire l’envahissement de critères marchands dans la production d’un bien public, peut conduire les individus à adopter des comportements non coopératifs ou opportunistes préjudiciables au caractère collectif de l’entreprise scientifique.
30Le modèle de l’Open Research repose sur les caractéristiques traditionnelles du système d’incitations du monde scientifique, à savoir des motivations intrinsèques désintéressées jointes à des motivations extrinsèques assurant revenus et statut aux chercheurs dans la cité. Il vise à maintenir l’équilibre entre les deux types de motivations que l’hyper développement de mesures de productivité individuelle, base de transformation des chercheurs en valeurs marchandes sur un « job market », a tendance à détruire. Il s’agit de prévenir ce que relèvent Frey et Jegen (2001) dans leur survey, à savoir la propension des motivations extrinsèques à détruire dans de nombreux domaines les motivations intrinsèques sans y apporter d’alternative.
31Le modèle de l’Open Research renverse à cet égard le modèle actuel. Alors que dans ce modèle, la production de connaissances est de plus en plus un instrument de la valorisation marchande du chercheur, la production du chercheur se définit par son intégration à un processus collectif de connaissances, à condition bien entendu d’avoir un statut social reconnu.
Le système de coordination
32Il recouvre l’ensemble des opérations nécessaires à la validation des connaissances produites et à leur incorporation dans les corpus constitués : discussion des hypothèses et des résultats dans le cadre de séminaires et de colloques, sélection des connaissances pertinentes, édition de ces connaissances sous forme de publications attestant et manifestant leur incorporation aux corpus tout en étant le support de leur transmission. Dans le modèle actuel de production scientifique, le système de coordination est principalement fondé sur un cadre horizontal de pair à pair. La coordination des tâches afférentes relève d’un cadre largement auto-organisé. Les organisations qui supportent ces tâches sont en effet l’œuvre de communautés, au fonctionnement très informel, sinon artisanal, dont la nature tient à ce que chacun est à la fois producteur, utilisateur et évaluateur de connaissances. Cette circularité des rôles, plus étendue encore que celle relevée par Balwin et Von Hippel (2011) entre producteur et utilisateur, fonde le caractère très démocratique de l’élaboration du savoir, alors qu’il est paradoxalement le fruit de quelques-uns. Elle rend aussi très collectif le mode de production du savoir où chacun circule entre les rôles selon les moments : contributeur, lecteur, évaluateur. De même, la critique rigoureuse des travaux vise non pas tant à désigner des mérites individuels dans le cadre d’une concurrence de marché qu’à améliorer ces travaux pour accroître le capital collectif de connaissances.
33Le système collectif de coordination de pair à pair est toutefois altéré en bout de ligne par les conditions dans lesquelles s’effectue aujourd’hui la validation institutionnelle des connaissances. Rappelons-en les principes :
- Les publications [5] sont l’instrument de la validation : est socialement reconnue comme connaissance pouvant s’incorporer aux corpus scientifiques toute connaissance publiée dans une revue, sachant que la hiérarchisation des revues vaut hiérarchisation du savoir.
- Ces publications dépendent de comités éditoriaux dont la fonction est de filtrer l’accès aux revues. Mais cet accès est parfois biaisé en faveur de certaines recherches et les chercheurs n’ont pas un accès égal à ces revues.
- De nombreuses revues, notamment les plus recherchées, sont tombées dans le giron de quelques éditeurs qui les ont transformées en machines à cash : les publications sont fournies gratuitement par la recherche publique et achetées à prix élevé par les marchés publics (bibliothèques, centres de documentation).
- Un ranking des chercheurs est établi à partir de leur production scientifique individuelle mesurée par les publications.
- Le ranking définit la valeur marchande du chercheur sur le job market et,partant, détermine sa mobilité.
34Nous avons examiné plus haut les effets pervers de ce système. Mais que convient-il de changer ?
35Le point A est incontournable. Il faut un mécanisme de sélection de la connaissance, à savoir déterminer ce qui est consacré par les pairs et incorporé dans les corpus. Il ne passe pas toutefois exclusivement par les publications. On peut imaginer d’autres dispositifs.
36Le point B est controversé. On peut en effet assurer une pluralité de la recherche en diversifiant les revues sous la condition qu’elles ne reflètent pas une hiérarchie implicite ou explicite du savoir. L’inégalité d’accès selon la réputation du labo dans lequel on est, les réseaux auxquels on appartient, le pays dans lequel on vit… est une objection plus forte. Mais elle ne fait que sanctionner les conditions de la production scientifique elle-même.
37Le point C a fait l’objet d’un mouvement mené par les plus grandes universités telles qu’Harvard contre le racket organisé par les éditeurs comme Elsevier au détriment des fonds de recherche alors que le travail de production et d’évaluation et les marchés sont publics (cf. supra, 1.1). Au-delà du scandale financier qu’il recouvre, ce point révèle un basculement du processus collectif de connaissances vers une marchandisation du savoir qui prend ici la forme de la valorisation commerciale d’une fonction d’intermédiation. Les universités agitent la menace d’une validation/valorisation directe des travaux scientifiques pour amener l’intermédiaire à revoir ses marges. Mais on peut douter qu’elles aient la capacité d’être le support logistique direct de la fonction de conversion de la connaissance en publications. Il nous semble que cette fonction doit revenir aux communautés dans le cadre duquel s’effectue la production de connaissances. Dans le modèle Open Research, la revue est non pas le fruit de comités éditoriaux fermés, mais une forme d’auto-organisation de la communauté.
38Les points D et E sont les points cruciaux, car ils mettent à leur service les points précédents, leur assignant rétrospectivement une fonction de marchandisation du savoir alors qu’ils n’ont pas été initiés pour cela. Le ranking n’est pas en soi une mauvaise chose : il y a des connaissances plus importantes que d’autres. Mais :
Est-on sûr que le classement des revues recouvre un classement hiérarchique des connaissances ? Le processus est largement auto-référentiel : une connaissance est reconnue de qualité, car publiée dans une revue bien classée. La revue est supposée être un signal de qualité, faute d’un autre mécanisme d’accréditation sociale de la connaissance
Le ranking qui est un classement de la publication dérivé d’un autre classement, celui de la revue, classe à son tour l’auteur de la publication ce qui en définit la valeur marchande. Il s’établit ainsi un système de causalité qui va du classement de la revue à celui de la publication puis à celui de l’auteur, base de son évaluation marchande sur un marché qui assure sa promotion et sa mobilité. La hiérarchisation des revues qui paraît répondre à l’évidente nécessité de différencier la qualité des connaissances produites s’avère intrinsèquement liée à la transformation de la position du chercheur d’acteur d’un processus collectif de production de connaissance à une valeur individualisée sur un marché.
41L’objectif principal du modèle de l’Open Research, côté système de coordination, est de rompre la transmutation d’un acteur de processus collectif en valeur individuelle de marché en proposant une autre organisation des caractéristiques D et E du modèle actuel. L’enjeu majeur est de rétablir une cohérence entre le système d’incitations et le système de coordination pour assurer un mode de production de la connaissance qui ne repose pas sur une contradiction croissante entre le caractère de plus en plus collectif de la science et une mesure individualisée des performances asservie à la constitution d’un marché des chercheurs.
Les perspectives. Qu’est-ce qu’une revue dans le modèle Open Research ?
42Nous venons de voir que le modèle actuel repose sur une suture forte entre le classement de revues et l’individualisation de performances valorisables sur un marché. C’est donc le processus d’édition qui est visé. On ne peut aujourd’hui rétablir un équilibre non destructeur entre motivations intrinsèques et extrinsèques, le caractère collectif de la production scientifique et le mode d’évaluation des connaissances que si le processus d’édition est transformé et pas seulement, comme dans le débat actuel, le modèle économique de l’édition. La voie actuellement suivie est celle de l’Open Peer Reviewing. L’Open Peer Reviewing implique deux transformations du processus d’évaluation et d’édition : il devient contributif et est rendu public. De nombreuses tentatives sont ou ont été lancées (cf. supra, 1.2). Mais elles peinent à se stabiliser et n’ont encore qu’un caractère d’expérimentation.
Un exemple d’Open Peer Reviewing
43On suivra l’exemple d’une revue scientifique proposant un mode d’évaluation et d’édition de type Open Peer Reviewing (Lefebvre, 2010). Il s’agit d’une revue d’aérologie en ligne, Atmospheric Chemistry and Physics (ACP), créée en 2001. C’est une revue européenne de qualité dans la mouvance Open Access.
44Dans une première étape, le comité éditorial sélectionne les manuscrits qui lui semblent pertinents et les rend accessibles dans une partie « Discussion » du site de la revue. Un forum est associé à chaque manuscrit : tout lecteur peut discuter le contenu de l’article. Par ailleurs, le comité désigne des rapporteurs qui publient leur avis. Ils ont la possibilité de conserver l’anonymat. L’auteur est tenu de répondre publiquement aux rapporteurs. Chaque manuscrit accepté lors de la première sélection est ainsi flanqué d’un ensemble de commentaires et de réponses accessibles publiquement. L’auteur enrichit l’article des commentaires reçus.
45Au bout de 8 semaines, les rapporteurs établissent une dernière version de leurs avis se concluant par la recommandation ou non de la publication. Si les avis sont positifs, l’éditeur transfère alors le manuscrit de la partie Discussion du site publique à la partie qui ne comprend que des articles validés « Publiés ». Les commentaires, rapports, et réponses sont archivés et considérés comme un « Supplément » à l’article publié. Si les rapporteurs ne recommandent pas la publication, le manuscrit assorti des commentaires, avis et réponses reste dans la partie « Discussion ».
46Le modèle économique est celui de l’auteur-payeur. L’auteur paie une contribution au moment où le manuscrit est rendu accessible dans la partie discussion de la revue et non pour soumettre le manuscrit, ce qui est la règle dans la plupart des revues internationales. L’accès aux articles est gratuit à partir de tout ordinateur connecté. Les droits d’auteur sont sous licence Creative Commons.
Qu’attendre de l’Open Peer Reviewing ?
47La transparence du processus est destinée à améliorer la qualité des publications. Elle les enrichit en les soumettant à une critique potentiellement plus large que celle des séminaires et des conférences, en constituant un lieu de discussion scientifique plus interactif et constructif et en permettant de détecter les erreurs et les fraudes. Elle améliore aussi le processus traditionnel de reviewing en contraignant les rapporteurs à rédiger des avis plus soignés puisqu’ils sont ouverts à la discussion au sein de la communauté. L’intérêt pour les auteurs est que leur papier bénéficie d’une attention immédiate de l’ensemble de la communauté, après avoir été confronté à la critique dans des lieux particuliers (séminaires, conférence). Autre avantage : l’article entouré des commentaires et avis continue d’être une contribution à la production de connaissances même s’il n’est pas finalement « Publié ».
48Inconvénient : si l’article est refusé, la transparence du processus d’évaluation peut rendre plus difficile son acceptation par une autre revue. L’existence de rapporteurs est maintenue, mais leur avis est rendu public. La contrainte est plus forte, mais permet d’améliorer la qualité des rapports. Les rapporteurs ont le choix de conserver ou non l’anonymat (2/3 restent anonymes pour « travailler plus sereinement »).
49Mais la mise en place et le succès de l’Open Peer Reviewing dépendent surtout des lecteurs. Certains ne consultent que les articles « Publiés ». Rien alors ne change. D’autres suivent dans le détail le processus d’évaluation pour avoir une vision plus large du papier, mais ne participent pas aux échanges. D’autres s’impliquent dans les discussions. Ils sont minoritaires comme dans tout site participatif. Les arguments avancés par les chercheurs ayant une attitude passive relèvent, outre les articles jugés de qualité insuffisante, d’un problème de légitimité. Commenter, c’est se positionner comme expert et s’exposer à ce titre à la communauté. Les plus actifs sont dès lors les chercheurs reconnus. Peu de doctorants ou de jeunes chercheurs figurent parmi les commentateurs. Le processus tend à reproduire la hiérarchie institutionnelle. De ce fait, l’interactivité est encore faible : 1 article sur 5 fait l’objet d’un commentaire, les articles les plus commentés ayant une dizaine de commentaires [6].
50L’innovation apporte néanmoins des choses intéressantes :
- La qualité des articles et des rapports est améliorée grâce à la valeur ajoutée par les commentaires.
- Les articles ont une plus grande visibilité à la fois immédiate et différée (ils restent sur le site en cas d’insuccès final).
- La nature même de ce qu’est un article ou une publication change : la contribution de l’auteur ou des auteurs se transforme en un objet scientifique nouveau marqué par l’association des commentaires et des rapports à l’article.
- L’objet scientifique ne se trouve plus assigné aux seuls résultats d’une activité, mais porte sur le processus stratifié d’élaboration de la science que l’on sait constitué d’étapes et de controverses (Latour, 1987). Il en devient plus intelligible pour les autres. Une nouvelle forme d’exposition et de production du savoir apparaît dans un lieu d’évaluation du savoir.
51Mais elle permet surtout de reboucler le système de coordination et le système d’incitation. En effet, le processus public de discussions et d’évaluation permet d’établir de façon plus transparente les réputations. Elle soumet à la discussion publique les apports d’un ou plusieurs auteurs à la communauté, de même qu’elle établit une nouvelle source de légitimité scientifique au travers des contributions à l’évaluation collective. La réputation se construit non à partir de résultats individualisés, mais à partir de contributions à un processus collectif d’élaboration du savoir. L’auteur est lui-même élargi du résultat final à la contribution intermédiaire. La réputation devient alors une forme d’expression de la crédibilité d’un chercheur à l’égard d’une communauté. Or la science fonctionne à la crédibilité (Latour et Woolgar, 1986). On voit alors s’esquisser un autre principe de mesure de la « valeur » des chercheurs, alternatif au fameux Publish or Perish qui engage les chercheurs dans une course folle à la publication aux effets très dissolvants, car elle génère des comportements opportunistes dans des processus fondamentalement collectifs.
52Au fond, le modèle Open Research est à la recherche d’un autre principe d’incitation plus conforme au caractère en dernier ressort désintéressé et qui serait mis en œuvre au travers de l’adoption d’un nouveau processus d’évaluation. La réputation n’est plus seulement déterminée par des résultats attribués à un chercheur, mais par sa contribution identifiée au processus de construction collectif d’un savoir. Une règle Contribution and Credibility viendrait se substituer à celle du Publish or Perish.
Conclusion
53L’idée soutenue dans cet article est qu’une partie du système de coordination de la production scientifique, spécifiquement la procédure d’évaluation fondée sur le comptage individualisé des publications, n’est plus cohérente avec le système d’incitation fondé sur la domination des motivations intrinsèques, et la partie du système de coordination qui reste basée sur l’organisation collective du pair à pair (travail en équipe, séminaires, conférences…). Cette incohérence menace la production scientifique elle-même : l’individualisation du résultat entre en contradiction avec le caractère collectif du travail scientifique et de son organisation, l’utilitarisme corrompt les motivations intrinsèques des chercheurs, les critères productivistes risquent d’engendrer conformisme et perte de créativité.
54Cette crise dont nous percevons clairement les signes donne lieu à deux types de réaction. Le premier s’attaque à un point important certes mais secondaire, la rente des éditeurs scientifiques, sans toucher au processus d’édition lui-même. L’Open Access, notamment dans sa version Gold, en est la caricature. L’auteur devient le payeur à la place du lecteur (en fait de ses représentants, les bibliothèques). Notons qu’il s’agit du même système car financé par les fonds publics. Les auteurs-payeurs sont ou seront eux-mêmes financés par des subventions (une partie des contrats de recherche est dédiée à cette fonction, payer les éditeurs), de sorte que le financement public de la rente qui passait par les bibliothèques passera par les laboratoires. Révolution considérable ? On peut en douter et craindre des menaces sur l’indépendance des chercheurs si les directions de laboratoires choisissent de financer en priorité les articles qui leur semblent répondre aux attentes des comités éditoriaux.
55La seconde position consiste à contester la « tyrannie de l’évaluation » (Del Rey, 2013) sous la forme objectivée de l’évaluation quantitative mais sans clairement préciser ce qui viendrait à sa place ni même s’il faut la remplacer. Ce type de critique rejoint le courant plus vaste de la dénonciation du management par le chiffre et des souffrances au travail que ce management entraîne.
56Notre propos est différent. Il vise à montrer que l’évaluation doit être, jusqu’au bout, en cohérence avec la nature collective de la science. Cela ne signifie pas que l’évaluation individuelle doit être abandonnée mais qu’elle doit être compatible avec l’organisation collective de la science. Son principe est d’évaluer les chercheurs à partir des contributions qu’ils ont apportées à leur champ de recherche. Ces contributions deviennent Common knowledge à la communauté structurée par le champ, dès lors que se mettent en place des procédures participatives d’évaluation. La règle Contribution and Credibility vient se substituer à celle du Publish or Perish. Il s’agit alors d’imaginer le système de conditions rendant effective cette nouvelle règle, capable de la faire passer du statut de règle balbutiante à une routine acceptée. Ce n’est pas encore le cas. Mais les convulsions du système actuel de l’édition scientifique et du type d’évaluation qui s’y adosse nous poussent dans cette voie.
Références
- Anthony, D., Smith, S. W. & Williamson, T. (2007). "The quality of open source production : Zealots and good samaritans in the case of Wikipedia". Technical report, Darmouth College. Hannover. NH avril.
- Baldwin, C. Y. & Von Hippel, E. (2011). "Modeling a Paradigm Shift : From Producer Innovation to User and Open Collaborative Innovation". Organization Science. Vol. 22, n° 6, pp. 1399-1417.
- Benkler Y. (2006). The wealth of networks : How social production transforms markets and freedom. New Haven et Londres. Yale University Press.
- Cardon, D. & Levrel, J. (2009). « La vigilance participative. Une interprétation de la gouvernance de Wikipédia ». Réseaux, n° 154, pp. 51-89.
- Crepel, M. (2009). « Les folksonomies comme support émergent de navigation sociale et de structuration de l’information sur le Web ». Réseaux, n° 154, pp. 169-204.
- Del Rey, A. (2013). La tyrannie de l’évaluation. Paris. La Découverte.
- Deci, E. L. (1975). Intrinsic motivation. New-York. Plenum Publishing Co.
- Fang, F. C., Steenc, R.G. & Casadevalld, A. (2012). "Misconduct accounts for the majority of retracted scientific publications". National Academy of Sciences of the United States of America. Octobre.
- Frey, B. S & Jegen, R. (2001). "Motivation Crowding Theory". Journal of Economic Surveys. Vol. 15, n° 5, pp. 589-611.
- Gassmann, O. & al. (2011). "Opening up Science : Towards an Agenda of Open Science in Industry and Academia". HIIG Discussion Paper Series. Octobre.
- Hess, C. & Ostrom, E. (eds.) (2007). "Understanding Knowledge as a Commons". From Theory to Practice. MIT Press. Cambridge, Mass.
- Latour, B. (1987). Science in Action. How to Follow Scientists and Engineers through Society. Cambridge Mass. Harvard University Press.
- Latour, B. & Woolgar, S. (1986). Laboratory Life : The Construction of Scientific Facts. Princeton. U. P. Princeton.
- Lefebvre, M. (2010). « Rendre public le processus d’évaluation de la recherche. L’émergence de nouvelles pratiques d’écriture et de lecture de la science : l’exemple d’une revue scientifique du web 2.0 », Réseaux, n° 164, pp. 71-96.
- Lerner, J. & Tirole, J. (2002). "Some Simple Economics of Open Source". Journal of Industrial Economics. Vol. 50, n° 2, pp. 197-234.
- McCain, K. (1991). "Communication, competition, and secrecy : the production and dissemination of research-related information in genetics". Science, Technology & Human Values. Vol. 16, n° 4, pp. 491-516.
- Merton, R.C. (1973). "The theory of rational option pricing". Bell Journal of Economics and Management Science, 4, n° 1, pp. 141-183.
- Office of Research Integrity Newsletter (2012). Vol 21, n° 1, disponible sur : http://ori.hhs.gov/images/dd-block/dec_vol21_no1.pdf
- Pontille, D. & Torny, D. (2013). « La manufacture de l’évaluation scientifique ; algorithmes, jeux de données et outils bibliométriques ». Réseaux. N° 177, pp. 23-61.
- Pontille, D. & Torny, D. (2012). « Dans les coulisses des articles scientifiques : définir des catégories de fraude et réguler les affaires ». Revue d’Épidémiologie et de Santé Publique. Vol. 60, n° 4, pp. 245-342.
- Stephan, P. E. (1996). "The economics of science". Journal of Economic Literature.Vol. 34, n° 3, pp. 1199-1235.
- Suber, P. (2006). "Creating an Intellectual Commons through Open Access". En Hess, C. & Ostom, E. (eds.). Understanding Knowledge as a Commons. From Theory to Practice. MIT Press. Cambridge, Mass.
- Suber, P. (2012). Open Access. MIT Press. Cambridge, Mass. http://mitpress.mit.edu/books/open-access
- Williamson, A. (2002). "What Happens to Peer Review ?". ALPSP International Learned Journals Seminar. Londres. 12 avril.
Notes
-
[1]
Les notions d’Open Content, Open Knowledge, Open Research… sont assez floues. Nous n’utiliserons pas Open dans cet article pour désigner des problèmes de « gratuité » et de modèle économique de l’édition, mais pour indiquer la nature contributive des pratiques de production scientifiques. Plus exactement, la proposition d’Open Research vise à étendre les pratiques contributives, intrinsèques à toute activité scientifique, à un domaine qui en est en grande partie dépourvu : les mécanismes de validation sociale des connaissances scientifiques et de l’activité des chercheurs.
-
[2]
L’accroissement des fraudes n’est pas facile à établir, faute d’une mesure directe (ORI, 2012)
-
[3]
On lira avec profit sur ce sujet le livre déjà cité de P. Suber (2012). Le livre est lui-même en libre accès : http://mitpress.mit.edu/books/open-access
-
[4]
Le principe de « wisdom of the crowds » a été développé notamment par Surowiecki (2005) qui avance l’idée que la connaissance agrégée d’un grand groupe d’individus non experts est supérieure, sous certaines conditions, à celle d’un ou de quelques experts…
-
[5]
Les publications ou les conférences internationales dans certaines disciplines.
-
[6]
Ces résultats sont similaires à ceux obtenus par la revue Nature qui a mené une expérience d’Open peer reviewing en 2006 où des articles soumis à une procédure classique de rapport anonyme ont également été publiés en ligne afin de collecter des commentaires publics et non anonymes. Seuls 5 % des auteurs ont accepté de participer à l’expérimentation et seuls 54 % des articles ont reçu des commentaires. Les éditeurs en ont conclu que les chercheurs étaient trop occupés pour consacrer du temps à cette activité et peu enclins à dévoiler leur réelle identité. Le fait que l’expérience ait été menée dans le cadre d’une revue traditionnelle introduisait un biais de sélection portant sur les chercheurs soumettant des propositions d’articles à cette revue. Cf. l’éditorial de la revue Nature, 444, pp. 971-972, 21/12/2006, ainsi que les résultats de l’expérimentation sur le site de la revue : http://www.nature.com/nature/peerreview/debate.