Notes
-
[1]
Le Parlement vote la totalité du budget de l’État et non plus, comme auparavant, les seules « mesures nouvelles » (soit 5 à 6 % du budget) ; il a aussi de plus grandes possibilités de redéploiement des crédits par rapport aux propositions du gouvernement.
-
[2]
Ils ont été récoltés lors d’une enquête de terrain qui prenait place dans une recherche portant sur « la mise en œuvre de la LOLF dans les universités. Comptabilités, statistiques et changements ».
-
[3]
Comme la MIRES, Mission interministérielle Recherche et Enseignement supérieur, que nous allons étudier ci-après.
-
[4]
On comprend ainsi en quoi le Parlement gagne en capacité d’action : il peut redéployer les crédits au sein d’une mission, proposer d’augmenter ou de diminuer les crédits d’un programme, supprimer ou créer des programmes.
-
[5]
Ce niveau ne figure pas dans le texte de la loi, mais est largement induit par elle.
-
[6]
La très forte homogénéité des discours sur la LOLF portés tant par les politiques que les administratifs ; c’est pourquoi il nous a semblé pertinent de parler d’un « nouvel esprit du management public » [Eyraud, 2004]. Toutefois, la LOLF s’inscrit dans une certaine continuité de la rationalisation des choix budgétaires (RCB) des années 1970 [Perret, 2006], et de la circulaire de Renouveau du service public, dite « circulaire Rocard » de 1989.
-
[7]
Les membres de la DR ont d’ailleurs tenté d’imposer l’existence d’un chef de file de la Mission, souhaitant bien évidemment que ce soit la DR, mais sans résultat. Ces controverses, tout comme celles autour du programme 172 « orientation et pilotage de la recherche » aujourd’hui disparu, qui concernent plus la partie « recherche » qu’« enseignement supérieur », sont développées et analysées dans Linhardt et Muniesa [2009].
-
[8]
À mettre en relation avec le classement de Shanghai et la volonté gouvernementale de voir monter rapidement dans le classement les universités françaises : objectif inscrit dans la lettre de mission donnée à V. Pécresse par N. Sarkozy.
-
[9]
Certains députés et sénateurs se sont fortement engagés pour la création d’IUT dans leurs fiefs ; la CDIUT a ainsi de très forts soutiens au sein des parlementaires.
-
[10]
L’analyse de ces deux activités pourrait donner lieu, chacune, à l’élaboration d’un article.
-
[11]
Ce cadre de pensée est développé dans le Guide méthodologique pour l’application de la LOLF. La démarche de performance : stratégie, objectifs, indicateurs, produit au printemps 2004 à destination des ministères par un certain nombre d’acteurs transversaux (direction de la Réforme budgétaire ou DRB du Minéfi, commissions des finances de l’Assemblée nationale et du Sénat, Cour des comptes et Comité interministériel d’audit des programmes (CIAP).
-
[12]
Le PAP du programme 150 arrivera toutefois à déroger à ces principes, puisqu’il comporte 13 objectifs mesurés à l’aide d’un à 4 indicateurs.
-
[13]
La DRB a été créé pour la mise en place de la LOLF. Elle a joué deux rôles essentiels : celui de théoricien de la LOLF (élaboration de la démarche de performance, de la théorie des opérateurs…), et celui de garant de la logique LOLF (tel choix de telle ou telle direction ministérielle s’inscrit-il bien dans la logique LOLF ?).
-
[14]
En résumé, celle-ci pose la question suivante : « Comment le principal (l’actionnaire qui ne dispose d’aucun pouvoir dans la gestion de l’entreprise) peut-il obtenir de l’agent (la direction) qu’il fasse prévaloir les intérêts du principal sur les siens propres ? » Et elle y répond ainsi : « En fixant à l’agent des obligations de résultats, assorties d’incitations et de sanctions, et en s’assurant de la transparence de sa gestion. »
-
[15]
Probablement en grande partie lié au manque de disponibilité de ce type de données, puisqu’avant la LOLF « la mesure des résultats est purement quantitative et limitée à l’efficacité interne (taux de scolarisation, de redoublement, de réussite, etc.), car destinée au pilotage de la planification dans une période où le mot d’ordre est l’expansion en volume de la scolarisation » [Vinokur, 2008].
-
[16]
Notre objectif n’est pas ici de caricaturer les positions des uns et des autres, ni celles des « moines-soldats » ni celle des « ministères dépensiers », exposées avec nuance par Siné [2006].
-
[17]
Pour une analyse du benchmarking comme technique de gouvernement par le biais des activités de quantification, on se reportera à [Bruno, 2006].
-
[19]
Pour une présentation du développement de ce NPM, voir par exemple Suleiman [2005] ; pour une analyse de sa signification et de son déploiement dans l’enseignement supérieur, voir Vinokur [2008].
-
[20]
Toutefois, le Parlement a utilisé son pouvoir accru d’amendements lors des débats sur le PLF disponibles sur le site de l’Assemblée nationale ou sur la chaîne parlementaire.
-
[21]
L’Enseignement supérieur et la Recherche sont devenus un ministère à part entière, séparé du Men, en 2007 ; la ministre en est Valérie Pécresse (cela avait déjà été le cas entre 1993 et 1995, le ministre était alors François Fillon).
-
[22]
Ces normes, clairement rattachables à la cité industrielle, sont très critiquées depuis quelques années dans les discours ministériels.
-
[23]
Lancée par le premier ministre le 10 juillet 2007 et s’inspirant du rapport Pébereau sur la dette publique, son objectif consiste en l’élaboration pour chaque administration d’un plan de modernisation et d’économies s’ajoutant au remplacement d’un fonctionnaire sur deux partant à la retraite.
-
[24]
Dénommé « Sympa » : système de répartition des moyens à la performance et à l’activité.
-
[25]
La Direction de l’enseignement supérieur a été rebaptisée « direction générale » (d’où son sigle DGES) à la faveur des restructurations ministérielles de 2006.
-
[26]
Théoriquement d’accord avec ce système d’allocation des moyens, la CPU a signalé son désaccord une fois les calculs effectués pour le budget 2009 et les dotations spécifiées aux universités ; et a proposé un modèle alternatif lors de sa séance plénière du 16 avril 2009.
-
[27]
Dans la même logique que le nouveau décret sur le statut des enseignants-chercheurs. Vinokur [2008] résume ainsi le système précédent par « obligation de moyens + confiance », et le nouveau par « obligation de résultats + méfiance ».
-
[28]
Difficile au niveau individuel de calculer des « parts de ».
-
[29]
Tandis que celui des parts de publications françaises est devenu l’indicateur de qualité de la recherche nationale, appuyant les discours alarmistes et déclinistes.
1 – Introduction
1La Loi organique relative aux lois de finances (LOLF) adoptée le 1er août 2001 pose les nouvelles modalités de présentation, d’examen, de vote, d’exécution et de contrôle des lois de finances. Elle est entrée en vigueur au 1er janvier 2006, remplaçant l’ordonnance de 1959. Loi d’origine parlementaire, on lui reconnaît deux grands objectifs : accroître les pouvoirs du Parlement en matière de finances publiques? [1] et introduire une gestion de l’État orientée vers la performance. Pour ce qui nous intéresse, la LOLF a généré deux processus distincts de quantification : l’élaboration d’une nouvelle nomenclature budgétaire et la définition d’indicateurs de performance des politiques publiques.
2Ces deux processus sont différents mais en lien. Tout d’abord parce que les objectifs, indicateurs et cibles ont été élaborés pour chacun des programmes tels que définis dans la maquette budgétaire. Ensuite, parce que les nouveaux documents budgétaires associent la performance des actions publiques mesurée par ces indicateurs au montant des crédits qui leur sont dédiés.
3Nous proposons d’analyser ces deux processus de quantification pour une politique publique particulière : l’enseignement supérieur et la recherche universitaire. Dans une première partie, nous concentrerons notre attention sur la construction de la nouvelle maquette budgétaire (début 2002 à fin 2003), les enjeux qu’elle a suscités et la nouvelle répartition des pouvoirs administratifs qu’elle a engendrée. Dans une seconde partie, nous nous intéresserons à la construction des indicateurs (fin 2003-printemps 2005), en mettant en avant les controverses qui les ont finalement produits. Il s’agira, dans les deux cas, de repérer et d’analyser les acteurs en présence, leurs arguments, les types de nomenclature et d’indicateurs avancés par les uns et les autres, les rapports de force à l’œuvre, jusqu’à la « victoire » d’une certaine nomenclature et de certains indicateurs ; nous nous centrerons sur les controverses structurantes. L’analyse mettra en évidence qu’un dispositif technique de quantification (maquette budgétaire, indicateurs), dispositif rationnel, voire qui se veut rationalisateur, est le produit de rapports de forces. Dans une troisième partie, nous aborderons la question du devenir des indicateurs, autrement dit leurs usages trois ans après la mise en place de la LOLF.
4Les matériaux qui serviront de base à notre analyse sont de trois sortes? [2]. Des entretiens : une vingtaine auprès des acteurs du processus de construction du PAP (projet annuel de performance) « Enseignement supérieur et recherche » (direction de l’Enseignement supérieur, direction de la Recherche, etc.). Des documents d’archives : la plupart des comptes rendus des réunions de préparation du PAP au sein du ministère de l’Éducation nationale, les différentes versions du PAP (les deux avant-projets et la version définitive 2006), ainsi que les différents rapports d’analyse critique du PAP (en particulier de son découpage et des indicateurs choisis) produits par la Cour des comptes, les commissions des Finances du Sénat et de l’Assemblée nationale, le Comité interministériel d’audit des programmes, et l’Inspection générale de l’administration de l’Éducation nationale et de la Recherche. Enfin, des matériaux d’observation : nous avons suivi les journées et formations organisées par l’AMUE, la CPU et l’OST (Observatoire des sciences et des techniques) portant sur les indicateurs des établissements et la gestion par la performance.
2 – Nouveau découpage du budget et redéfinition des « périmètres » administratifs
5Avant 2006, le budget de l’État était divisé par ministère / titre / partie / chapitre / article et paragraphe. Les titres correspondaient à un classement par nature de la dépense (fonctionnement, investissement…) ; ils constituaient l’unité de vote du budget de l’État. Les chapitres (au nombre de 800 environ au début des années 2000), compte élémentaire pour la présentation et l’ouverture des crédits votés par le Parlement, constituaient « l’unité de spécialité », c’est-à-dire l’enveloppe de crédit que les gestionnaires publics étaient tenus de respecter en exécution ; ils répartissaient les dépenses en fonction de leurs destinations. Ainsi, un ministre pouvait dépenser, pour une certaine action publique relativement précise (le chapitre : les services d’information et d’orientation des universités par exemple), une certaine somme en fonctionnement, une autre en investissement. Cette nomenclature, très détaillée et très complexe, rendait l’exécution des dépenses relativement contrainte au niveau d’un ministère, et la lecture du budget, pour les parlementaires, particulièrement difficile et peu significative en matière de politiques publiques.
6Avec la mise en place de la LOLF, le budget de l’État est divisé en : missions / programmes / actions / titres et catégories. La mission est un ensemble de programmes concourant à une politique publique définie, par exemple l’enseignement supérieur et la recherche, elle peut être interministérielle? [3] ; elle constitue l’unité de vote du budget? [4]. Le programme constitue un ensemble cohérent d’actions relevant d’un même ministère. Dans la loi de finances pour 2006, première année de mise en œuvre de la LOLF, le budget général comporte 133 programmes répartis en 34 missions. Les titres sont, comme dans la nomenclature précédente, un classement par nature. Les programmes constituent l’unité de spécialité et donc l’unité de base de la « nouvelle gestion publique » ; chacun est piloté par un haut fonctionnaire, le « responsable de programme », souvent directeur d’administration centrale. Chaque programme est décliné en « budgets opérationnels de programme » (BOP)? [5], également dotés de responsables identifiés, et en unités opérationnelles (services déconcentrés, « opérateurs » de l’État tels qu’universités, CNRS…). Le responsable de programme ou de BOP est libre de l’utilisation de ses crédits : la présentation des crédits par action et titre est indicative, il n’y a plus de cloisonnement entre investissement et fonctionnement mais une globalisation des crédits. La seule limite concerne les dépenses de personnel (la masse salariale est fixée par programme), il y a là un plafond et une fongibilité asymétrique : il est possible d’employer moins de personnel que le plafond d’emploi prévu par la loi et de les rémunérer plus ou de redéployer ces crédits vers du fonctionnement ou de l’investissement, mais la réciproque est impossible. Apparaît ici l’inscription dans la règle comptable de la limitation, voire de la diminution, de l’emploi public.
7Pour les responsables de programme et de BOP, cela signifie un gain évident en matière de capacités de décision ; la contrepartie de cette souplesse de gestion consiste en une meilleure information sur les objectifs des programmes et en un compte rendu systématique de leur performance. La LOLF crée ainsi deux nouveaux documents qui devront être annexés l’un aux projets de lois de finances initiales (PLFI) et l’autre aux projets de lois de règlement (PLR) : respectivement le PAP et le « rapport annuel de performance » (RAP) élaborés par mission. Le PAP précise « la présentation des actions, des coûts associés, des objectifs poursuivis, des résultats obtenus et attendus pour les années à venir mesurés au moyen d’indicateurs précis dont le choix est justifié » (LOLF, article 51-5). Le RAP mettra « en évidence les écarts avec les prévisions du PAP : objectifs et résultats attendus et obtenus, indicateurs et coûts associés ; justifie les mouvements de crédits entre les titres » (LOLF, article 54-4)? [6].
8La première implication de ce processus est le redécoupage du budget de l’État sur la base de « politiques publiques ». Il va falloir définir les contenus des missions et des programmes, autrement dit décider quels seront les organismes (et donc les crédits et les personnels) qui y seront rattachés et quel en sera l’organisme responsable. Ce redécoupage budgétaire peut ainsi entraîner des recompositions administratives.
Les controverses vont impliquer des acteurs de deux niveaux :
- ministériel et parlementaire, en particulier la direction du Budget (DB) du ministère des Finances (Minéfi), les ministères menant des activités de recherche et d’enseignement supérieur, le cabinet du Premier ministre, et les commissions des finances du Sénat et de l’Assemblée nationale ;
- internes au ministère de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche (Menesr), en particulier la direction de l’Enseignement supérieur (DES), la direction de la Recherche (DR), la direction de l’Enseignement scolaire (DESCO), la direction des Affaires financières (DAF) et le cabinet du ministre ;
- auxquels il faut ajouter la Conférence des présidents d’université (CPU) et la Conférence des directeurs d’IUT (CDIUT).
10Une bonne partie des termes utilisés dans nos entretiens relève du domaine du contrôle (« droit de regard », « autonomie », « garder la mainmise », « mettre la main sur », etc.), de la crainte de ce contrôle, et de celui du combat (« se battre bec et ongles », « on a été battu », « un combat », « la bataille », etc.). Ainsi, une directrice peu vindicative : « Ça a été de fortes luttes de pouvoir entre ministères et au sein des ministères pour décider quel ministère ou quelle direction aurait la main sur telle ou telle chose. C’était épouvantable. » Ou encore, un directeur adjoint critiquant l’attitude d’un directeur de cabinet : « Il a eu une action désordonnée, du genre attrape-tout pour essayer de récupérer un maximum de dotations budgétaires d’autres ministères. » Une déclinaison « allégée » de cet enjeu tourne autour de la « visibilisation » ; être quantifié c’est ainsi avoir une certaine existence ici budgétaire, ce qui facilite les négociations et les reconductions de crédits, et plus largement une visibilité de ses actions.
Le second enjeu, consubstantiel aux autres, met en jeu une vision politique de l’enseignement supérieur et de la recherche ; nous y ferons référence en termes d’« enjeu politique ». Le troisième est de l’ordre de la gestion, les discours mettent alors en avant les dimensions pratiques et opérationnelles, convoquent des choix techniques s’appuyant sur les limites des outils, en particulier informatiques, et conduisent à proposer la reconduction de l’organisation existante, créant une espèce de « routine institutionnelle ».
Ces trois enjeux et les logiques auxquelles ils correspondent sont, nous allons le voir, largement imbriqués et se confortent souvent mutuellement.
2.1 – « Enseignement supérieur et recherche » : le découpage de la mission
11Le fait de réaliser une mission regroupant enseignement supérieur et recherche n’allait pas de soi. Les premières discussions au sein du gouvernement et du Parlement envisageaient deux ou trois missions : une mission enseignement (de la maternelle à l’université) et une mission recherche, ou une mission enseignement scolaire (de la maternelle au baccalauréat), une mission enseignement supérieur et une mission recherche. C’est le fort lobbying de la CPU qui a fait émerger la solution retenue : une mission « enseignement scolaire » et une mission « recherche et enseignement supérieur », dont il faut négocier les périmètres. En recherche, il existe un antécédent : le budget civil de recherche et de développement technologique (BCRD) créé en 1982, qui est à la fois un instrument de mesure et de pilotage de l’effort de recherche publique. Dans une lettre au directeur du cabinet, la directrice de la recherche déclarait au mois d’août 2002 : « Dans la mise en œuvre de la LOLF, l’enjeu est double : il s’agit à la fois de pérenniser, en le transposant, le BCRD dans le nouveau paysage budgétaire et de sauvegarder, sinon d’élargir, les prérogatives politiques de la ministre déléguée à la recherche et aux nouvelles technologies. » Si la transposition du BCRD a été effective, la capacité d’action de la DR s’est dégradée comme le déplorent ses membres : les différents ministères construisent le PAP et le RAP de leur programme sans les consulter? [7].
Côté enseignement supérieur, la première proposition élaborée par la DES comprend toutes les formations supérieures :
- celles dépendant d’autres ministères : écoles supérieures de la magistrature ou de la santé des ministères du même nom, École des Mines dépendant du Minéfi, École des Ponts de l’Équipement, etc. ;
- celles dépendant d’une autre direction du ministère (la DESCO) : en particulier les CPGE (classes préparatoires aux grandes écoles) et les STS (section de techniciens supérieurs), toutes deux présentes dans les lycées.
13Les CPGE et STS n’intégreront pas non plus la mission. La DESCO mettra l’accent sur les difficultés matérielles d’une telle intégration. Mais les enjeux de pouvoir, y compris financier [Eyraud, 2008], semblent ici encore particulièrement forts : la volonté de la DESCO, soutenue par des lycées très cotés et leurs associations d’anciens élèves, de garder les formations d’élite dans les lycées versus la proposition de la CPU d’intégrer totalement les CPGE dans les universités.
Cabinet du ministère et Matignon ont tranché pour redécouper à l’identique, reproduisant l’organisation duale de l’enseignement post-bac français, entre universités et grandes écoles.
2.2 – La recherche universitaire : de l’universitaire ou de la recherche ? Ou le découpage en programmes
14Il restait donc à structurer en programmes la recherche dépendant du Menesr : celle réalisée dans les organismes sous la tutelle de la DR (CNRS, Inserm, Inra, etc.) et celle réalisée dans les universités sous la tutelle de la DES. Allait-on les associer dans différents programmes de recherche thématiques à côté d’un programme « enseignement supérieur » ? C’est la solution soutenue par la ministre : cohérence et visibilité de la politique nationale de recherche, et combattue par la CPU : indissociabilité enseignement et recherche, visibilité de la recherche universitaire. Qui en aurait alors la responsabilité ? Ou les dissocier : les organismes dans les programmes de recherche thématiques, la recherche universitaire dans un programme « enseignement supérieur et recherche universitaire » ; solution soutenue par le ministre délégué à l’enseignement supérieur, la DES et la CPU, elle privilégiait l’unité des universités. Le Parlement y était fermement opposé, considérant que ce programme concentrerait à lui seul la moitié des crédits de la mission (crédits et personnels : environ 10 Md €), et plaidait pour le scinder en deux : enseignement supérieur d’un côté, recherche universitaire de l’autre. C’est toutefois la deuxième solution que retiendra l’arbitrage de Matignon sur un argument technique de la DB : l’impossibilité informatique, pour l’élaboration des payes, de partager chaque enseignant-chercheur sur deux programmes. Parallèlement, un certain nombre de moyens gérés par la DR (allocations de recherche pour les doctorants, personnel) passeront sous gestion de la DES. Ces arbitrages traduisent ainsi l’état des rapports entre recherche universitaire et recherche des organismes ; différentes décisions et politiques engagées depuis viendront consolider et accentuer ce relatif basculement vers les universités? [8].
Finalement, l’isolement de l’action sociale (« Vie étudiante ») dans un programme à part entière (P231) n’a pas donné lieu à controverses.
2.3 – L’enseignement supérieur et la recherche : pour quelles actions publiques ?
15Les programmes de recherche des organismes et la partie recherche de « Formations supérieures et recherche universitaire » (programme 150 ou P150) seront structurés en actions identiques, le Parlement souhaitant pouvoir comparer leurs budgets et leurs performances. Concernant la partie enseignement du P150, trois approches existaient. L’une prônait un découpage par type d’établissements (reprenant une nomenclature existante : établissement à dominante scientifique, à dominante littéraire…) ; soutenue par la DB, elle permettait une allocation facile des crédits et une visualisation des économies possibles, le cabinet du Menesr s’y est opposé arguant d’un non-sens en termes de politiques publiques. La seconde envisageait un découpage par filière (droit, santé, etc.), proposé par des membres de la DES, elle permettait une gestion « en fonction des besoins du marché du travail », mais le cabinet s’y est fortement opposé craignant de réinstaurer le système facultaire et de visibiliser les différences de financement entre disciplines. La troisième souhaitant une structuration par cycle (licence, master, doctorat) ; soutenue majoritairement par la DES et le cabinet, arguant de la nécessité d’un tel affichage pour ancrer dans la réalité cette structuration des études pas encore en place, à l’époque, dans toutes les universités. La CPU pensait que cette approche comportait le risque pour les universités de perdre le pilotage des masters au profit du CNRS. Cette troisième solution sera celle retenue par Matignon.
16Cette structuration en actions a été marquée par un très fort lobbying de la Conférence des directeurs d’IUT. Ces derniers demandaient la création d’une action « IUT » pour conserver leur capacité de négocier (en crédits et personnel) directement avec le ministère et non pas avec le président de leur université. Il a fallu l’arbitrage (défavorable aux IUT) de Matignon, ce qui montre la puissance du lobby en question? [9].
17Cela a conduit à la structuration mission /programmes /actions, telle que nous la connaissons aujourd’hui. La DAF a alors travaillé à l’élaboration d’une matrice de correspondance entre l’ancienne structure budgétaire et la nouvelle, puis a reventilé les crédits. Le ministère demandait, dans le même temps, à tous les établissements de répartir leurs personnels dans ces programmes et actions? [10]. C’est sous cette structuration que le ministère alloue les crédits aux organismes dont il a la tutelle et que ces derniers, en particulier les universités, élaborent, votent et exécutent leurs budgets.
3 – Quels indicateurs pour quelle mesure de l’action publique ?
18Le deuxième processus consiste à quantifier l’action publique et ses résultats, à en mesurer la performance à l’aide d’indicateurs et à en projeter l’évolution. Chaque programme de la LOLF est ainsi assorti d’un certain nombre d’objectifs dont le niveau de réalisation est mesuré par un à quatre indicateurs, auxquels sont attachées des cibles quantitatives à atteindre à moyen terme (3 à 5 ans). Les objectifs sont déclinés selon trois intitulés : « objectifs du point de vue du citoyen, de l’usager ou du contribuable », qui parfois se combinent. Cette trilogie citoyen /usager /contribuable est fondée sur celle des « trois E » : effectiveness /efficiency /economy? [11]. Ce mode de pensée et de structuration des objectifs et indicateurs semble être de l’ordre de la boîte noire bien solidifiée. Cette trilogie était déjà à l’œuvre en Grande-Bretagne en matière de gestion publique dès les années 1980 et 1990 [Le Galès, 2004] et fut importée par le théoricien ou passeur français Bernard Abate [2000], haut fonctionnaire. Ce cadre de pensée est complètement partagé par les acteurs transversaux qui font preuve, dans ce domaine, d’une grande intégration culturelle. En même temps que ce cadre définit ce que sont des objectifs et des indicateurs de performance, il définit ceux qui n’en sont pas : les « indicateurs d’activité » ou « de moyens ». Cette distinction va structurer les controverses entre ministères sectoriels d’une part, Minéfi, Parlement, Cour des comptes et CIAP de l’autre.
19Le travail de définition des objectifs et indicateurs commence au sein des directions ministérielles : DES et DR, chacune pour son domaine ; « On est partis de ce qu’on avait sur la table. »
20Dans une première phase, la DES a affiché un certain volontarisme en mettant en place un groupe de travail avec les principaux acteurs de l’enseignement supérieur et la DR quand il s’agit de champs conjoints. Deux documents issus de ce groupe déclinent les objectifs et une centaine d’indicateurs pour définir et évaluer les missions des universités. Mais le Minéfi va envoyer la structure de la maquette PAP accompagnée d’une circulaire spécifiant qu’il faut se limiter à cinq objectifs par programme et à deux indicateurs par objectif? [12]. La DES, contrainte par ce cadrage, revoit sa copie. La seconde phase consiste à discuter de ces objectifs et indicateurs avec le Minéfi (DB et DRB? [13]). Les discussions semblent particulièrement difficiles : « Aux premières réunions à Bercy, dès qu’on sortait un indicateur, on nous disait : c’est un indicateur de demande de moyens, et ça ne passait pas. » D’ailleurs, seuls deux indicateurs issus des documents de la DES seront repris, avec modifications. La toute dernière copie de la DES fera figurer les objectifs et indicateurs issus des négociations, mais sans les répartir dans les trois catégories ; ce sera la DRB qui appliquera a posteriori cette grille sur les objectifs et indicateurs retenus. Il est clair que ce n’est pas ce cadre de pensée qui, du côté du ministère de l’Éducation, a structuré la démarche.
21L’élaboration des indicateurs de performances définitifs a donné lieu à une double confrontation : une première autour de la définition des « bons indicateurs » avec comme arrière-plan un rapport de forces au sein et entre administration(s) ; une seconde moins visible, imbriquée dans la première, autour des idées, et qui renvoie aux définitions et/ou implications de la performance dans le secteur public.
22Nous proposons d’analyser ces confrontations à travers trois grilles. Dans les deux premières, nous verrons, en nous appuyant sur les catégories indigènes, comment la définition des indicateurs victorieux est passée au crible d’un processus de qualification /disqualification des indicateurs proposés, comment cela s’est révélé être pour certains acteurs et administrations un enjeu de conservation de leur autonomie, de réduction des incertitudes budgétaires qui découlent de la LOLF et, pour d’autres, un moyen d’étendre leur tutelle, voire leur leadership, dans la conduite politique et administrative des politiques publiques. Ces deux premières grilles se fondent sur les clivages : indicateurs de performance versus indicateurs de moyens, indicateurs absolus versus indicateurs relatifs.
Dans la troisième grille, nous appuierons notre propos sur la confrontation des idées (en termes de représentation des acteurs), qui se logeait dans les controverses et rapports de forces évoqués ci-dessus, pour analyser les représentations portées et/ou imputées aux indicateurs victorieux. Nous tenterons dans cette grille une classification de manière idéale-typique des indicateurs retenus en nous référant à la grille élaborée par Boltanski et Thévenot [1991] autour des cités. Si cette grille a moins d’incidences pratiques que les deux premières, elle a pour valeur de mettre en évidence les controverses par anticipation des acteurs face à des valeurs, des missions et des pratiques qu’ils pensent être un devenir probable et qu’ils rejettent ou soutiennent.
3.1 – Logiques des acteurs. Indicateurs de performance vs indicateurs de moyens ?
23La DES est dans une double logique : vis-à-vis des établissements dont elle a la tutelle, et vis-à-vis du Minéfi et du Parlement. Par rapport aux premiers, elle conçoit les indicateurs comme des incitations à agir dans telle ou telle direction : « Derrière chaque indicateur il y a une volonté politique, on essaie d’inciter les établissements à améliorer ceci ou à développer cela, il y a un message à tous les établissements derrière chaque indicateur. » (membre DES) Cette manière de concevoir les relations aux établissements rejoint la théorie économique de l’agence? [14] et accepte les principales hypothèses de la théorie des anticipations rationnelles : les indicateurs servent de signaux. Par rapport aux seconds, il s’agit plutôt de donner une image positive de l’enseignement supérieur et de la recherche : « Vous n’êtes quand même pas masos, vous ne construisez que des indicateurs qui ne peuvent que s’améliorer, vous n’avez pas envie d’être fusillés derrière. » (Membre DES) « On voulait donner à voir ce qui marche » (membre DEP) et probablement de montrer qu’une amélioration pourrait être obtenue avec des moyens supplémentaires (taux d’encadrement en personnel enseignant et en personnel IATOS, coût par étudiant, etc. ; tous ces indicateurs n’ont pas été retenus). La DR est également dans cette dernière logique ; tout comme la CPU, dont le premier vice-président donne, dans une lettre écrite début 2005 au directeur de l’enseignement supérieur, ses observations quant aux objectifs et indicateurs retenus dans le premier projet de PAP : « S’agissant des trois premières actions (licence, master, doctorat), le commentaire général est que plusieurs parmi les indicateurs proposés sont globalement défavorables à l’université », suivent des propositions d’indicateurs qui ne seront pas retenues.
24La direction du Minéfi (DB et DRB), quant à elle, déclare constamment ne pas vouloir d’indicateurs de moyens : « Nous ne voulions pas d’indicateurs directement corrélés à des moyens budgétaires » (membre DB), « ils voulaient vraiment éviter de susciter des discussions autour des budgets qui s’articulent justement sur : si je veux améliorer les résultats sur tel indicateur ça veut dire que j’ai besoin de plus de moyens » (membre DAF), « ils ont voulu bannir tous les indicateurs qui permettaient de faire le lien entre l’activité décrite et les moyens budgétaires » (membre DES). Quand on regarde précisément les indicateurs retenus, on se rend compte que cela n’est pas si simple. Ainsi, certains indicateurs que l’on pourrait considérer comme des indicateurs d’activité ou de moyens ont été, non seulement retenus, mais imposés par Bercy. C’est le cas du taux d’occupation des locaux. Bercy a également tenté d’imposer le taux d’activité des enseignants-chercheurs, sous différentes formes : temps réel passé par les enseignants-chercheurs à des activités de recherche, heures d’enseignement effectuées sur la durée théorique de leur service. « Ils ont fait énormément de pressions, et ils en font encore. C’est vrai que quand le directeur de l’enseignement supérieur se retrouve face au Budget, il est quand même très mal à l’aise, parce que tout le monde sait qu’une partie des enseignants-chercheurs fait peu de recherche, et que, face au Budget, demander des emplois en plus sachant que toute une partie du personnel ne fait pas son service, c’est gênant. » (Membre DES) Parallèlement, le Minéfi essaie, encore aujourd’hui, en s’appuyant sur les rapports de la Cour des comptes et des commissions des finances parlementaires, d’imposer un plus grand nombre d’indicateurs d’efficience (au Menesr comme dans tous les autres ministères sectoriels), autrement dit des indicateurs d’économie des ressources, mais sans grands résultats? [15].
Il semble donc que c’est moins la distinction entre indicateurs de performance et indicateurs de moyens, grille d’analyse portée par les acteurs transversaux, qui explique les positions du Minéfi, que l’image de la performance susceptible de lui donner le plus de pouvoir dans les discussions puis l’arbitrage budgétaires? [16]. Dans ce cadre, il peut être utile que les indicateurs donnent une image négative du service public en question : « Bercy voulait absolument des calculs qui auraient pu faire les gros titres d’un canard un peu people (taux d’échec, sortants non diplômés, etc.), une image en négatif quoi. » (Membre DEP) « Nous avons eu de très fortes pressions de Bercy pour le choix de certains indicateurs, et même sur le périmètre des indicateurs, il a fallu batailler fort pour que le taux de doctorants obtenant leur thèse en trois ans prenne en compte les soutenances jusqu’au 31 décembre et non pas jusqu’au mois de septembre, cela faisait augmenter ou diminuer le taux de 20 points » (membre DR). Cette dernière citation nous montre à quel point les « détails » peuvent avoir de l’importance, et à quel point également les acteurs en présence se sont saisis de ces détails sans les laisser, comme souvent, définir par les statisticiens. La fixation des cibles montre également cette bataille entre image positive et image négative. Elles ont été élaborées par les responsables de programmes en collaboration avec le cabinet du ministre, puis négociées avec la DB ; les premiers les souhaitant atteignables : « Si vous mettez la barre trop haut, vous prenez le risque de vous planter et de vous le faire reprocher, donc la tendance naturelle est de mettre la barre pas trop haut pour être sûr d’atteindre mon objectif, voire de le dépasser » (membre DES), tandis que les seconds les souhaitent élevées : « Bercy nous reproche que nos cibles ne sont pas assez ambitieuses » (membre DES), « ils nous ont obligés, pour la part mondiale des publications, d’afficher une valeur cible en hausse, alors que c’est complètement impossible avec la montée en puissance en particulier de la Chine et de l’Inde, même les États-Unis diminuent en valeur relative » (membre DR).
3.2 – Indicateurs absolus vs indicateurs relatifs
25Un deuxième type de controverse a traversé les débats : utilise-t-on des indicateurs en valeur absolue (nombre, volume) et leurs « dérivés relatifs » pour une analyse temporelle (taux d’accroissement), ou utilise-t-on des indicateurs en valeur relative (rapports, ratios, part de). Là aussi, la ligne de partage passe entre les ministères et organismes (CPU) sectoriels et les ministères et organismes transversaux. Ces derniers mettent en garde, dans le guide méthodologique puis dans leurs différents rapports, contre l’utilisation du premier type d’indicateurs. Tandis que le président de la CPU déclare dans sa lettre au directeur de l’enseignement supérieur : « Alors que l’université a mission et obligation d’accueillir tous les bacheliers, elle sera jugée sur des critères qualitatifs, comme des taux de réussite dans un laps de temps donné. Il est indispensable que l’université puisse aussi afficher des résultats quantitatifs, comme l’effectif (absolu) de diplômés formés, même si cet objectif est ensuite décliné en relatif, comme pourcentage d’une classe d’âge diplômée de l’enseignement supérieur. » La DR proposera également des indicateurs absolus. Ces différentes propositions ne seront pas retenues, la quasi-totalité des 40 indicateurs sont des indicateurs relatifs ; les raisons invoquées sont généralement celles de la comparabilité. Ce choix permet ainsi la construction de nouveaux espaces d’équivalence, permet les comparaisons entre organismes de recherche et universités en matière de recherche (voire la structure miroir des actions et le choix des mêmes indicateurs), entre pays, et en infra entre laboratoires de recherche ou entre universités. Cette solution rend ainsi possible le développement de palmarès et de benchmarking? [17], mais, et c’est ce que l’on peut leur reprocher à l’instar des indicateurs de démocratisation scolaire et de performance des lycées [Garcia et Poupeau, 2003], sans introduire les conditions de travail de chacun : comparer les résultats sans prendre en compte les conditions de production conduit justement à occulter les effets des conditions de production sur les résultats.
3.3 – Les indicateurs au crible des cités
26Il existe une autre manière d’analyser ces controverses. On peut utiliser assez librement, comme le propose Gadrey [1996] pour l’évaluation de la productivité des services, la grille élaborée par Boltanski et Thévenot [1991] pour l’analyse de disputes autour de six cités ou mondes : le monde industriel, le monde marchand, le monde civique, le monde de l’opinion, le monde domestique, le monde de l’inspiration. « Les “produits”, résultats et performances des activités des services sont alors susceptibles d’être définis, qualifiés et évalués à partir de critères de justification multiples : des critères industriels (productivité), marchands (chiffres d’affaire, marges), civiques (contribution au bien commun, équité, etc.), domestiques (qualité des liens personnels), de réputation (renommée, image), de créativité ou “inspiration” (innovation). » [Gadrey, 1996] Gadrey propose d’utiliser cette grille pour mettre à plat les évaluations possibles de la performance d’un service, pour expliciter les systèmes de valeur ou les « grandeurs » en présence selon les groupes d’acteurs concernés et leur propre représentation des missions de ce service, et finalement pour tenter de traduire ces grandeurs en une liste structurée de critères (quantifiables ou non) permettant justement une analyse multicritère. L’exemple qu’il développe sur l’évaluation de l’activité courrier de La Poste (Gadrey) est tout à fait parlant. On peut ainsi retenir comme indicateurs de la grandeur du monde industriel des indicateurs relatifs aux volumes de courrier et à la qualité (erreurs, dysfonctionnements, respect des délais) ; pour le monde marchand, les montants des recettes, les marges dégagées et des indicateurs sur la compétitivité ; pour le monde domestique, des indicateurs informant sur la production de liens personnels en particulier dans la distribution (enquête auprès des usagers) ; et pour le monde civique, d’autres informant sur le traitement équitable des usagers, l’assistance aux populations marginalisées, etc. Nous pouvons « retourner » cette démarche : analyser les controverses autour des indicateurs comme des « épreuves de grandeur » et tenter d’associer chaque indicateur à un type de grandeur et de monde particulier. Cette tentative a des limites, en particulier épistémologiques ; mais elle a, il nous semble, une valeur heuristique indéniable. Prenons pour exemple l’un des deux indicateurs visant à mesurer l’atteinte de l’objectif n° 7 (du point de vue du citoyen) « Produire des connaissances scientifiques au meilleur niveau international ». Il a donné lieu à des batailles acharnées : nombre ou taux d’accroissement des publications françaises dans les revues européennes ou mondiales (position de la DR) ou part des publications françaises dans les publications européennes et mondiales (position de Bercy). On peut considérer que la première proposition se rattache au monde industriel (volume de production et augmentation de ce volume) et à une vision productiviste de l’activité de recherche, tandis que la seconde se rattache au monde marchand, le terme de « parts de marché » est d’ailleurs utilisé par le directeur de l’enseignement supérieur de l’époque dans plusieurs de ses discours ; c’est cette dernière qui l’a emporté.
27Boltanski et Chiapello [1999] sont venus prolonger ce travail et ajouter une nouvelle cité dont l’importance est caractéristique du « nouvel esprit du capitalisme », la « cité par projets ». Cette dernière valorise la capacité à s’intégrer, à créer et à étendre des réseaux dans le cadre de projets, et ainsi le nombre et la valeur des connexions qui passent par une personne ; la flexibilité, la mobilité, la visibilité, l’autonomie, la capacité d’ajustement, le développement de partenariats.
28Essayons de rattacher la quarantaine d’indicateurs des programmes 150 et 231, tels qu’ils figurent dans les versions finales des PAP, à une cité particulière. Quatre cités apparaissent.
29En matière de recherche, les grandeurs relèvent essentiellement de la cité marchande (6 indicateurs) et de la cité par projets (5 indicateurs). En matière d’enseignement, ce sont les logiques industrielle (8 indicateurs) et marchande (7 indicateurs) qui dominent ; la cité par projets est également présente, mais faiblement (4 indicateurs), tout comme la cité civique (et ce, malgré la présence, dans les titres des objectifs, de nombreux « objectifs du point de vue du citoyen »). Cette dernière est faible tant quantitativement (3 indicateurs) que qualitativement : les indicateurs choisis ne relevant pas de projets politiques forts ni en termes de démocratisation ni en termes de participation. Elle est sur ces deux points beaucoup plus forte, voire quasi exclusive, dans le programme 231. Or rappelons que ce programme s’intitule « Vie étudiante » et comprend essentiellement les aides financières directes et indirectes, autrement dit la cité civique prend essentiellement place dans l’aide sociale.
Il est possible d’articuler acteurs et cités : les propositions des « organismes » sectoriels (DES, DR, CPU) s’inscrivent plutôt dans la cité industrielle, celles des organismes transversaux (DB, DRB, Cour des comptes, Parlement, CIAP) plutôt dans le couple cité marchande / cité par projets, rejoignant les thèses en termes d’« économie de la connaissance ». Ce sont finalement les indicateurs pouvant être associés à la cité marchande qui dominent quantitativement le programme 150. Les lignes de partage des trois manières d’analyser les controverses (indicateurs d’activité et de moyens versus indicateurs de performance, indicateurs en valeur absolue vs valeur relative, cité industrielle vs marchande) se recoupent largement. Cela n’a rien d’étonnant : les indicateurs associables à la cité industrielle sont des indicateurs d’activité le plus souvent exprimés en valeur absolue, les indicateurs rattachables à la cité marchande appartiennent aux indicateurs de performance, généralement exprimés en valeur relative. Les indicateurs exprimés en valeur relative participent au développement d’un espace de comparabilité, qui est une condition d’existence du marché.
30Si nous reprenons trois éléments de notre analyse : les indicateurs comme signaux, le développement d’un espace de comparabilité et une dominance de la cité marchande, nous retrouvons une idée avancée par Desrosières [2008, vol. 2] : « Marché, incitation, palmarès : ce triplet caractérise l’espace dans lequel la statistique publique s’est en partie redéployée depuis les années 1980. » Toutefois, la prédominance de la cité marchande dans notre classification souligne plus une transformation des idées que des usages. Les indicateurs victorieux inscrivent un nouveau référentiel en termes de pratiques, de missions, de valeurs qui a pour finalité de faire émerger de nouvelles pratiques ou a minima de réinterroger les anciennes. Notre propos n’est pas de conclure à une marchandisation ou une privatisation de l’enseignement supérieur mais à une incitation à la compétition scientifique à travers la mobilisation de nouveaux modes de gestion. Cette tendance est à mettre en relation avec le développement des thèses et des politiques du Nouveau management public ou New Public Management (NPM)? [19].
4 – Production et usages des indicateurs : entre permanence institutionnelle et changement des cadres d’action
31De manière générale, les lieux de production des deux processus de quantification ont été essentiellement technocratiques. La maquette budgétaire est le produit de négociations intra- (directions et cabinet) et interministérielles, d’autres acteurs ont été présents mais peu influents tels que le Parlement, seule la CPU a joué un rôle de lobby important. Il en a été de même pour la définition des objectifs et indicateurs, même si le Parlement a été plus écouté. Certains acteurs ont été quasi absents du processus, c’est le cas du ministre, du Comité technique paritaire ministériel (CTPM) et de ses représentants syndicaux (la maquette leur a simplement été présentée une fois bouclée), et des universités (en dehors de la CPU).
32Nous avions relevé trois types d’enjeux : des enjeux de pouvoirs administratifs, des enjeux politiques et des enjeux de gestion. Les premiers ont été les plus puissants ; on ne doit toutefois pas sous-estimer les troisièmes qui s’accompagnent de deux types d’effets. Le premier est ce que les économistes néo-institutionnalistes nomment la path dependency : les processus de création institutionnelle dépendent largement du chemin déjà parcouru, autrement dit de l’existant ; et ce d’ailleurs en partie pour des raisons stratégiques. Le second concerne les effets structurants de la technique (logiciels informatiques par exemple) et des cadres pratiques de travail (tels que la structure et les cases formatées de la maquette PAP). Il en est ainsi de l’impossibilité informatique de payer une personne sur deux programmes : « Cette contrainte a été très structurante. On a eu des débats dans tous les sens, plus ou moins théologiques, sur faut-il séparer formation et recherche universitaires. Mais comme il n’était pas possible d’imputer une même rémunération sur deux programmes, la question ne se posait plus, on a été obligés de les mettre ensemble. » (membre DAF)
Le premier processus de quantification a ainsi été marqué par des batailles arbitrées par Matignon en faveur d’un statu quo institutionnel reprenant les grands équilibres, ou les grands déséquilibres, de l’organisation de l’enseignement supérieur français. Les missions et programmes devaient être conçus en fonction des politiques à conduire et ne pas retracer l’organisation de l’administration – ce fut pourtant largement le cas, ici comme ailleurs. Le second processus a donné lieu à des batailles plus limitées, alors qu’il est susceptible de produire des changements puissants en matière de cadres d’action, tout dépendra des usages de ces indicateurs. Ces usages n’en sont qu’à leurs balbutiements, mais on a pu voir émerger, surtout depuis 2008, un certain nombre de pratiques.
4.1 – Au Parlement
33La discussion et le vote du budget se font depuis l’automne 2006 dans le cadre de la structure LOLF. Nous avons suivi aux mois de novembre 2007, 2008 et 2009 les discussions des projets de loi de finances (PLF).
34Le PLF est examiné en amont par la commission des finances, un ou deux « rapporteurs spéciaux » élaborent un rapport sur chaque mission s’appuyant sur les PAP des années n et n+1 et sur le RAP de l’année n-1. Les rapports pour la Mires montrent essentiellement l’augmentation des crédits, les « efforts sans précédent » consacrés à l’enseignement supérieur et la recherche, et insiste sur la LRU, ses chantiers, le Plan Campus. Ils énumèrent les budgets pour des politiques particulières : orientation active, tutorat, insertion professionnelle, etc., et soulignent les augmentations d’enveloppe. Les indicateurs sont peu sollicités (au contraire des montants budgétaires) si ce n’est pour argumenter le bien-fondé de telle ou telle politique. Ainsi, même s’ils sont parsemés d’indicateurs, ces rapports s’inscrivent largement dans une « logique de moyens », et non pas, objectif de la LOLF, dans une « logique de résultats ». Dans le même sens, la présentation par le ministre du Budget ne comporte aucun indicateur de performance mais seulement des données budgétaires, et insiste sur l’augmentation conséquente du budget ; les débats porteront sur la portée de cette augmentation. De manière générale, les indicateurs sont très loin d’avoir structuré les débats? [20] ; ils relèvent encore du champ technique et n’ont pas été intégrés au discours politique.
4.2 – Au ministère? [21]
35On peut différencier deux types d’usage, chacun étant lié à un interlocuteur particulier. Le premier de ces interlocuteurs est la DB du Minéfi au moment des négociations de crédits (février-mai). Ces négociations se font sur la base de la maquette budgétaire LOLF. Cette phase de rencontres s’accompagne depuis 2006 de « conférences de performance » entre les directions du ministère et la DB. Y sont rediscutés la pertinence des objectifs et des indicateurs retenus et le niveau d’atteinte des cibles. Les négociations budgétaires ne se sont pas référées aux indicateurs comme l’attendaient certains hauts fonctionnaires : « On ne discute pas des indicateurs de performance dans les discussions budgétaires, mais de montants de crédits et d’emploi ; les indicateurs ne pèsent pas sur la construction du budget, ils nous servent parfois d’arguments, comme on le faisait auparavant avec ce que la DB appelle des indicateurs de moyens, mais comme ça dans la discussion, ça n’a pas d’impact, surtout sur des budgets où 60 (enseignement supérieur) à 90 % (scolaire) sont de la masse salariale. » (Membre DAF)
36Les deuxièmes interlocuteurs sont chaque université. Depuis la fin des années 1980, elles négocient et signent avec le ministère un contrat pour quatre ans décrivant leurs forces et faiblesses, leurs projets prioritaires et les moyens que l’État leur alloue pour les réaliser. Ces ressources sur contrat représentent de 15 à 30 % des subventions d’État ; le reste étant la Dotation globale de fonctionnement (DGF) calculée sur des critères quantitatifs (en particulier le nombre d’étudiants, l’effectif du personnel enseignant-chercheur et BIATOS et les surfaces immobilières) appelés « Normes San-Remo »? [22]. Depuis l’année 2006, les indicateurs d’évaluation présents dans les contrats sont une déclinaison des indicateurs PAP au niveau de chaque établissement.
37Dans le cadre de la nouvelle loi sur les libertés et responsabilités des universités (loi LRU) et de la Révision générale des politiques publiques (RGPP)? [23], un nouveau système d’allocation des moyens? [24], issu des discussions entre la DGES? [25], le Parlement et la CPU, est en place depuis le 1er janvier 2009. Le contrat définira désormais la subvention globale versée par l’État aux universités, y compris la masse salariale pour les universités passées aux « compétences élargies », allant ainsi vers le « budget global » inscrit dans la loi LRU. Ce contrat comprendra deux parties : une part performance incluant une partie de la masse salariale et une part toujours critérisée sur activités ; cette distinction remplacerait la précédente entre part contractuelle et DGF. La part performance correspond à 20 % du budget d’une université, le changement ne semble donc pas si considérable. Mais signalons, tout d’abord, les 80 % sur activités se décident sur des critères « d’activités performantes » : il ne s’agit plus du nombre d’étudiants mais des présents aux examens, il ne s’agit plus du nombre d’enseignants-chercheurs mais des seuls « publiants ». La part performance est, quant à elle, basée sur les critères de taux de réussite en licence et nombre de diplômés de master pour l’enseignement, et pour la recherche sur la cotation des laboratoires (A+, A, B ou C) par l’Agence d’évaluation de la recherche et de l’enseignement supérieur (AERES).
Ces quelques indicateurs devenus les « indicateurs prégnants » [Boussard, 2001] du système sont vraisemblablement le fruit de compromis entre DGES, Parlement et CPU? [26] (on reconnaît par exemple, dans le nombre de diplômés de masters, la volonté d’indicateurs quantitatifs de la CPU). Les indicateurs de performance et les cibles déclinées (plus ou moins directement) du PAP deviennent un des fondements de la détermination du budget alloué par l’État à chaque université, budget susceptible de variations importantes d’une année sur l’autre. On comprend alors l’importance qu’il y aurait eu à avoir des indicateurs intégrant les « conditions de production » des activités d’enseignement et de recherche : on récompense la performance et on punit financièrement la non-performance? [27], mettant ainsi en œuvre les principes de la théorie de l’agence. Mais la première peut être en lien, non exclusif, avec de bonnes conditions de travail, et la seconde avec des conditions difficiles que la punition ne viendra qu’aggraver ; « il paraît probable que l’argent public […] aille aux établissements déjà les mieux dotés » [Vinokur, 2008, p. 14]. Ce système met en place une mise en concurrence des universités : une fois l’enveloppe globale « enseignement supérieur et recherche universitaire » (le programme 150) définie, si certaines ont plus, c’est que d’autres ont moins.
4.3 – Dans les universités
38Certaines universités s’appliquent cette démarche de performance. Elles déclinent au niveau de leurs composantes les indicateurs qu’elles trouvent pertinents pour leur propre gestion et fixent des cibles à atteindre, actualisant elles aussi les principes de la théorie de l’agence. Le niveau d’atteinte donne droit ou pas à un « bonus » budgétaire. Ce nouveau système va à l’encontre du précédent pour lequel l’allocation des moyens était largement fondée sur le nombre d’étudiants (cité industrielle) et sur la puissance en matière de lobby (cité domestique) de la composante. Il est difficile pour l’instant de savoir dans quelle mesure ce nouveau système cohabitera avec et remplacera progressivement le précédent, ou viendra simplement le légitimer. Certaines universités ont d’autre part créé un « bonus qualité publications » pour leurs laboratoires et équipes de recherche ainsi qu’une prime individuelle pour les enseignants-chercheurs ; le montant de ces bonus et primes est fonction du nombre de publications et surtout de leur indice de citation.
39En matière de recherche, ce sont les indicateurs de nombre de publications (cité industrielle? [28]) et d’indice de citations (cité par projets) qui sont devenus les indicateurs prégnants? [29] tant pour l’évaluation individuelle, pour celle des unités et équipes de recherche, que pour celle des universités. Et ce sont donc sur ceux-là que se focalise la contestation du monde de la recherche. Comme nous l’indiquions plus haut, le débat autour des indicateurs est resté confiné aux acteurs technocratiques. Tant que ces indicateurs n’acquièrent pas d’efficacité sociale, ils peuvent rester confidentiels. Mais quand ils deviennent performatifs (ici en termes de financement et de carrières individuelles), leur légitimité est alors remise en cause.
5 – Conclusion : quelle nouvelle gestion publique dans l’enseignement supérieur ?
40Beaucoup de choses ont été écrites sur le nouveau management public et sur le « gouvernement par les nombres » qui l’accompagne. Nous nous contenterons ici de tirer les fils de notre propre recherche.
41L’enjeu majeur semble, ainsi, être d’imposer une nouvelle forme de rationalité et de nouveaux rapports entre l’État central et les organismes publics sous sa tutelle, entre le centre de ces organismes et leurs composantes. Il s’agit de passer à un management par objectif et à un financement à la performance. Côté management, « l’État devra de plus en plus réguler les établissements par une mise sous tension par objectifs, car il n’aura plus de levier d’administration directe, ce sera son seul mode d’entrée » (membre DGES). Côté financement, il s’agit d’un changement culturel fort : le passage d’un financement par rapport aux « besoins sociaux » à un financement par rapport à la performance des organismes publics dans leur réponse aux dits besoins sociaux. Les discours sur la LOLF parlaient ainsi du « passage d’une culture des moyens à une culture du résultat ». Il est intéressant de noter que cette nouvelle gestion publique s’applique sur une très vieille organisation intouchée (la séparation universités/grandes écoles) ; le contraste entre l’importance des changements en cours et à venir d’un côté, et le statu quo de l’autre est saisissant.
42Ceci étant, le lien entre financement et performance n’était pas inscrit dans la LOLF ; les pères de la loi, le sénateur Lambert et le député Migaud, étaient clairs sur la question : « La gestion orientée vers les résultats n’est pas une gestion par objectifs du type de celle que l’on observe dans les entreprises. En effet, il ne peut y avoir de lien direct, au sein du budget de l’État, entre le volume des crédits et les objectifs poursuivis. Pour les entreprises, le schéma est simple. (…) Les pertes, les bénéfices, le développement de l’activité ont un effet immédiat sur les structures de l’organisme. (…) Pour l’État, il ne peut en être ainsi : aucun de ses objectifs ne peut se traduire en termes de marge ou de rentabilité. Donc aucune dépense ne peut être directement corrélée à un objectif. L’objectif ne peut qu’être « associé » à la dépense. Pour la détermination d’un volume de crédits, la notion de besoin demeurera prépondérante au sein du budget de l’État. On pourrait donc très bien concevoir qu’aucune conséquence budgétaire ne soit tirée des résultats atteints » [2006, p. 13-14]. L’évolution qui se dessine aujourd’hui est la conjonction de la volonté incitative de la DGES, de l’orientation vers la cité marchande donnée largement par la DB aux indicateurs, de la loi LRU, de la politique mise en œuvre dans les services publics depuis la mi-2007 : la RGPP et de la mise sous tension financière de ces mêmes services qui accompagne cette politique.
- Abate B. (2000), La nouvelle gestion publique, L.G.D.J., Paris.
- Boltanski L., Chiapello E. (1999), Le Nouvel esprit du capitalisme, Gallimard, Paris.
- Boltanski L et Thévenot L. (1991), De la justification, les économies de la grandeur, Gallimard, Paris.
- Boussard, V. (2001). « Quand les règles s’incarnent. L’exemple des indicateurs prégnants », Sociologie du travail, n° 43, p. 33-551.
- Bruno I. (2006), Déchiffrer l’Europe compétitive. Étude du benchmarking comme technique de coordination intergouvernementale dans le cadre de la stratégie de Lisbonne, Thèse pour le Doctorat de sciences politiques, IEP Paris.
- Desrosières A. (2008), Pour une sociologie historique de la quantification, 2 volumes, Presses de l’École des Mines, Paris.
- Eyraud C. (2004), « Comptabilité (publique et d’entreprises) et sociologie, ou l’analyse des catégorisations sociales », Comptabilité – Contrôle – Audit, numéro thématique consacré à « La sociologie de la comptabilité », juin, p. 29-45.
- Eyraud C. (2006), « La LOLF et les projets annuels de performance (PAP) : Élaboration des figures du citoyen, de l’usager, du contribuable et du service public », Colloque L’action publique au risque du client ? Client-centrisme et citoyenneté organisé par la Revue Politiques et Management Public, IEP de Lille, 16 et 17 mars 2006, URL : http://hal.archives-ouvertes.fr/hal-00154956/fr/.
- Eyraud C. (2008), Les données chiffrées en sciences sociales, A. Colin, Paris.
- Gadrey J. (1996), Services : la productivité en question, Desclée de Brouwer, Paris.
- Garcia S. et Poupeau F. (2003), « La mesure de la démocratisation scolaire. Notes sur les usages sociologiques des indicateurs statistiques », Actes de la recherche en sciences sociales, n° 149, p. 74-87.
- Lambert A. et Migaud D. (2006), « La LOLF : levier de la réforme de l’État », Revue française d’administration publique, n° 117, p. 11-14.
- Le Galès P. (2004), « Contrôle et surveillance : la restructuration de l’État en Grande-Bretagne » in Lascoumes et Le Galès (dir.), Gouverner par les instruments, Presses de la Fondation nationale de sciences politiques, Paris.
- Linhardt D. et Muniesa F. (2009), « At stake with implementation: trials of explicitness in the description of the state », disponible sur HAL-SHS (halshs.archives-ouvertes.fr).
- Perret B. (2006), L’évaluation des politiques publiques, La Découverte, Paris.
- Siné A. (2006), L’ordre budgétaire. L’économie politique des dépenses de l’État, Economica, Paris.
- Suleiman E. (2005), Le démantèlement de l’État démocratique, Seuil, Paris.
- Supiot A. (2010), L’esprit de Philadelphie. La justice sociale face au marché total, Seuil, Paris.
- Vinokur A. (2008), « La loi relative aux libertés et responsabilités des universités : essai de mise en perspective », Revue de la régulation. Capitalisme, institutions, pouvoirs, n°2 [en ligne], URL : http://regulation.revues.org/document1783.html
Mots-clés éditeurs : budget de l'État, enseignement supérieur, sociologie, LOLF, indicateurs de performance
Date de mise en ligne : 17/05/2011
https://doi.org/10.3917/rfse.007.0147Notes
-
[1]
Le Parlement vote la totalité du budget de l’État et non plus, comme auparavant, les seules « mesures nouvelles » (soit 5 à 6 % du budget) ; il a aussi de plus grandes possibilités de redéploiement des crédits par rapport aux propositions du gouvernement.
-
[2]
Ils ont été récoltés lors d’une enquête de terrain qui prenait place dans une recherche portant sur « la mise en œuvre de la LOLF dans les universités. Comptabilités, statistiques et changements ».
-
[3]
Comme la MIRES, Mission interministérielle Recherche et Enseignement supérieur, que nous allons étudier ci-après.
-
[4]
On comprend ainsi en quoi le Parlement gagne en capacité d’action : il peut redéployer les crédits au sein d’une mission, proposer d’augmenter ou de diminuer les crédits d’un programme, supprimer ou créer des programmes.
-
[5]
Ce niveau ne figure pas dans le texte de la loi, mais est largement induit par elle.
-
[6]
La très forte homogénéité des discours sur la LOLF portés tant par les politiques que les administratifs ; c’est pourquoi il nous a semblé pertinent de parler d’un « nouvel esprit du management public » [Eyraud, 2004]. Toutefois, la LOLF s’inscrit dans une certaine continuité de la rationalisation des choix budgétaires (RCB) des années 1970 [Perret, 2006], et de la circulaire de Renouveau du service public, dite « circulaire Rocard » de 1989.
-
[7]
Les membres de la DR ont d’ailleurs tenté d’imposer l’existence d’un chef de file de la Mission, souhaitant bien évidemment que ce soit la DR, mais sans résultat. Ces controverses, tout comme celles autour du programme 172 « orientation et pilotage de la recherche » aujourd’hui disparu, qui concernent plus la partie « recherche » qu’« enseignement supérieur », sont développées et analysées dans Linhardt et Muniesa [2009].
-
[8]
À mettre en relation avec le classement de Shanghai et la volonté gouvernementale de voir monter rapidement dans le classement les universités françaises : objectif inscrit dans la lettre de mission donnée à V. Pécresse par N. Sarkozy.
-
[9]
Certains députés et sénateurs se sont fortement engagés pour la création d’IUT dans leurs fiefs ; la CDIUT a ainsi de très forts soutiens au sein des parlementaires.
-
[10]
L’analyse de ces deux activités pourrait donner lieu, chacune, à l’élaboration d’un article.
-
[11]
Ce cadre de pensée est développé dans le Guide méthodologique pour l’application de la LOLF. La démarche de performance : stratégie, objectifs, indicateurs, produit au printemps 2004 à destination des ministères par un certain nombre d’acteurs transversaux (direction de la Réforme budgétaire ou DRB du Minéfi, commissions des finances de l’Assemblée nationale et du Sénat, Cour des comptes et Comité interministériel d’audit des programmes (CIAP).
-
[12]
Le PAP du programme 150 arrivera toutefois à déroger à ces principes, puisqu’il comporte 13 objectifs mesurés à l’aide d’un à 4 indicateurs.
-
[13]
La DRB a été créé pour la mise en place de la LOLF. Elle a joué deux rôles essentiels : celui de théoricien de la LOLF (élaboration de la démarche de performance, de la théorie des opérateurs…), et celui de garant de la logique LOLF (tel choix de telle ou telle direction ministérielle s’inscrit-il bien dans la logique LOLF ?).
-
[14]
En résumé, celle-ci pose la question suivante : « Comment le principal (l’actionnaire qui ne dispose d’aucun pouvoir dans la gestion de l’entreprise) peut-il obtenir de l’agent (la direction) qu’il fasse prévaloir les intérêts du principal sur les siens propres ? » Et elle y répond ainsi : « En fixant à l’agent des obligations de résultats, assorties d’incitations et de sanctions, et en s’assurant de la transparence de sa gestion. »
-
[15]
Probablement en grande partie lié au manque de disponibilité de ce type de données, puisqu’avant la LOLF « la mesure des résultats est purement quantitative et limitée à l’efficacité interne (taux de scolarisation, de redoublement, de réussite, etc.), car destinée au pilotage de la planification dans une période où le mot d’ordre est l’expansion en volume de la scolarisation » [Vinokur, 2008].
-
[16]
Notre objectif n’est pas ici de caricaturer les positions des uns et des autres, ni celles des « moines-soldats » ni celle des « ministères dépensiers », exposées avec nuance par Siné [2006].
-
[17]
Pour une analyse du benchmarking comme technique de gouvernement par le biais des activités de quantification, on se reportera à [Bruno, 2006].
-
[19]
Pour une présentation du développement de ce NPM, voir par exemple Suleiman [2005] ; pour une analyse de sa signification et de son déploiement dans l’enseignement supérieur, voir Vinokur [2008].
-
[20]
Toutefois, le Parlement a utilisé son pouvoir accru d’amendements lors des débats sur le PLF disponibles sur le site de l’Assemblée nationale ou sur la chaîne parlementaire.
-
[21]
L’Enseignement supérieur et la Recherche sont devenus un ministère à part entière, séparé du Men, en 2007 ; la ministre en est Valérie Pécresse (cela avait déjà été le cas entre 1993 et 1995, le ministre était alors François Fillon).
-
[22]
Ces normes, clairement rattachables à la cité industrielle, sont très critiquées depuis quelques années dans les discours ministériels.
-
[23]
Lancée par le premier ministre le 10 juillet 2007 et s’inspirant du rapport Pébereau sur la dette publique, son objectif consiste en l’élaboration pour chaque administration d’un plan de modernisation et d’économies s’ajoutant au remplacement d’un fonctionnaire sur deux partant à la retraite.
-
[24]
Dénommé « Sympa » : système de répartition des moyens à la performance et à l’activité.
-
[25]
La Direction de l’enseignement supérieur a été rebaptisée « direction générale » (d’où son sigle DGES) à la faveur des restructurations ministérielles de 2006.
-
[26]
Théoriquement d’accord avec ce système d’allocation des moyens, la CPU a signalé son désaccord une fois les calculs effectués pour le budget 2009 et les dotations spécifiées aux universités ; et a proposé un modèle alternatif lors de sa séance plénière du 16 avril 2009.
-
[27]
Dans la même logique que le nouveau décret sur le statut des enseignants-chercheurs. Vinokur [2008] résume ainsi le système précédent par « obligation de moyens + confiance », et le nouveau par « obligation de résultats + méfiance ».
-
[28]
Difficile au niveau individuel de calculer des « parts de ».
-
[29]
Tandis que celui des parts de publications françaises est devenu l’indicateur de qualité de la recherche nationale, appuyant les discours alarmistes et déclinistes.