Notes
-
[1]
Décret du 18 novembre 1998 créant le Conseil national de l’évaluation, rapporté en 2007.
-
[2]
Site de la Commission consulté le 8 mars 2016 : http://ec.europa.eu/smart-regulation/impact/index_en.htm
-
[3]
Pour une réflexion théorique sur ce sujet, voir Regeer et al. (2016).
-
[4]
« Le capital social fait référence à des caractéristiques de l’organisation sociale telles que les réseaux, les normes et la confiance sociale, qui facilitent la coordination et la coopération en vue d’un bénéfice mutuel » (Putnam, 1995).
-
[5]
Conseil scientifique de l’évaluation (1990-1998) puis Conseil national de l’évaluation (1998-2002).
-
[6]
Comité interministériel de l’action publique du 18 décembre 2012.
-
[7]
52 évaluations étaient achevées en 2015, dont 17 ont donné lieu à un plan d’action, 24 rapports ont été publiés, 20 % de la dépense publique a été passée en revue et les évaluations ont permis de réaliser 4Mds€ d’économies en 2 ans (chiffres affichés par le Sgmap).
-
[8]
Ajoutons que la création de cette commission en janvier 2015 a fait suite à une première étude d’impact sur laquelle le Conseil d’État avait émis un avis défavorable en décembre 2014, pointant du doigt « le caractère lacunaire et les graves insuffisances de l’étude d’impact sur nombre de dispositions du projet ». Du fait du caractère tardif de sa constitution, la commission n’a pu rendre un rapport de synthèse avant le vote de la loi.
1L’évaluation des politiques publiques fait désormais partie des thèmes obligés de toute réflexion sur la réforme de l’État et la modernisation de l’action publique. Mieux gérer l’argent public et rendre des comptes sur son utilisation sont des impératifs peu contestables en période de rigueur budgétaire, dans une société où les exigences de transparence se font plus pressantes. Pour contribuer réellement à l’amélioration de la gouvernance publique, l’évaluation ne peut cependant pas se contenter de mesurer les coûts et les effets des politiques, elle doit aussi viser à en éclairer les enjeux, la logique et les mécanismes afin de permettre à tous d’en devenir les acteurs informés et responsables. Dans cette perspective, l’évaluation doit être comprise comme une démarche d’intelligence collective plus que comme une technique de mesure.
Qu’est-ce que l’évaluation des politiques publiques ?
2Dans le langage courant, le mot évaluation renvoie à deux notions : la mesure approximative (évaluer une distance) et le jugement (évaluer une personne ou une situation). Ces deux significations fournissent des repères utiles pour définir l’évaluation des politiques publiques. La définition la plus souvent citée penche nettement du côté de la mesure : « l’évaluation d’une politique publique a pour objet d’apprécier l’efficacité de cette politique en comparant ses résultats aux objectifs assignés et aux moyens mis en œuvre » [1]. Elle reflète la compréhension la plus immédiate de l’évaluation d’une action comme retour d’expérience objectivé par une mesure. Le progrès des méthodes d’évaluation a d’ailleurs été longtemps guidé par cette idée simple, d’où la tendance, notamment aux États-Unis, à considérer l’expérimentation avec échantillon témoin comme un idéal méthodologique indépassable (Duflo, 2013).
3Cependant, même lorsqu’il est possible d’objectiver par une méthode scientifiquement rigoureuse un rapport de cause à effet entre une action et une modification attendue de l’état de la société, cette connaissance ne répond pas à elle seule aux besoins des acteurs de la politique. Décrire ce qui s’est réellement passé et comprendre les mécanismes d’action de la politique évaluée – pourquoi et comment elle agit – s’avère en pratique aussi important. L’évaluation d’une politique est toujours l’occasion de la décrire, de la modéliser et d’en former une vision plus cohérente. Évaluer, c’est soumettre à l’épreuve des faits non seulement les objectifs d’une action, mais aussi les hypothèses et préjugés qui la fondent et les stratégies d’action de ceux qui sont chargés de la mettre en œuvre.
4La définition citée occulte en outre le processus à la fois cognitif et socio-organisationnel dans lequel s’insèrent les activités de mesure qui constituent le cœur technique de l’évaluation. Avant et après l’observation et la quantification, il faut en effet définir des questions et un cadre d’interprétation, ce qui exige du temps, de la réflexion et de la confrontation de points de vue souvent contradictoires. Si l’on veut que l’évaluation soit à la fois utile, crédible et légitime, il convient d’organiser ce travail à la fois conceptuel et procédural avec la même rigueur que la partie proprement technique de l’évaluation. L’institutionnalisation et l’agencement concret du processus discursif inhérent à l’évaluation font partie intégrante de sa méthodologie.
5Ainsi conçue, l’évaluation constitue un vaste domaine dont les frontières sont floues avec les autres pratiques d’analyse et de retour d’information mises en œuvre dans le secteur public : les multiples avatars du contrôle et de l’audit, l’analyse de gestion, le benchmarking (parangonnage ou étalonnage comparatif), le conseil, l’expertise et la recherche appliquée. La gouvernance publique repose en effet sur divers instruments de pilotage impliquant l’observation et l’analyse (que s’est-il passé ?), des préoccupations normatives (a-t-on bien fait ?) et des visées pratiques (comment faire mieux ?). En première approche, l’évaluation se distingue des différentes formes de contrôle et d’audit par le fait qu’elle s’intéresse principalement aux effets d’une action (sur ses bénéficiaires, la société, l’économie, etc.) et non au fonctionnement d’un service ou d’un organisme. De même, la distinction entre l’évaluation et les activités dont la finalité est de produire de nouvelles connaissances (études et recherches) est a priori très claire. En pratique, cependant, il ne manque pas d’exemples et de contextes dans lesquels ces distinctions sont floues. Il est d’autant plus difficile de tracer des frontières que l’évaluation est elle-même diverse, tant par ses finalités, ses méthodes et ses modes d’institutionnalisation que par les types d’objets soumis à son examen.
6En France, l’usage a consacré un emploi large de l’expression évaluation des politiques publiques alors que, dans le monde anglophone et dans la plupart des autres pays, les textes officiels aussi bien que les travaux académiques se réfèrent presque toujours à la notion d’évaluation de programme (program evaluation). Dans les deux cas, ces appellations sont trompeuses au regard de la diversité des situations et des objets évalués : on évalue aussi des mesures et des dispositifs réglementaires, des plans d’action et des projets, l’activité des établissements et organismes publics, la manière dont l’administration fait face à certains problèmes, etc. Á chaque type d’objet correspondent des enjeux et des méthodes spécifiques. Ainsi, l’évaluation (ex-ante et ex-post) des investissements publics (infrastructures de transport, etc.), à dominante de calcul économique, diffère-t-elle nettement de l’évaluation d’une politique sociale, bien que certains principes fondamentaux s’appliquent dans les deux cas.
7Précisons enfin que l’expression « évaluation des politiques publiques » désigne généralement l’évaluation ex-post ou rétrospective, portant sur une action ayant déjà produit des effets observables, même si l’évaluation est également pratiquée ex-ante ou « chemin faisant » pour préparer une nouvelle mesure ou piloter en continu une action en cours de développement. L’évaluation ex-ante s’appelle souvent étude d’impact (impact assessment), à ceci près que cette dernière expression recouvre souvent une démarche plus large d’aide à la décision incluant l’analyse des besoins et l’élaboration de scénarios alternatifs, à l’instar de la procédure mise en place depuis une dizaine d’années au sein des services de la Commission européenne [2].
8Au vu de ces différentes considérations, on optera pour la définition suivante : l’évaluation d’une action publique – politique, programme, plan d’action, projet, etc. –, consiste en un examen portant à la fois sur les conditions de mise en œuvre, le processus et les différentes conséquences de cette action (résultats, effets, impacts), mené dans un cadre institutionnel plus ou moins formalisé dans le but de rendre des comptes, d’améliorer cette action et/ou d’éclairer les décisions (notamment budgétaires) la concernant.
9L’institutionnalisation de l’évaluation se traduit classiquement par la mise en place d’une « instance d’évaluation » (nommée comité d’évaluation, comité de pilotage, etc.), de taille et de composition variable, qui doit se porter garant du processus et des conclusions de l’évaluation.
Pourquoi évaluer les politiques publiques ?
10Il est habituel d’opposer deux grands types d’évaluation, correspondant à deux conceptions contrastées de ses méthodes et de ses finalités : l’évaluation « récapitulative » à dominante quantitative, centrée sur la mesure des résultats et dont la visée naturelle est l’aide à la décision, et l’évaluation « formative » visant d’abord à augmenter les compétences et l’implication des acteurs, centrée sur les processus et recourant davantage aux méthodes qualitatives et participatives. Cette opposition est toutefois très théorique : la plupart des évaluations combinent de facto ces deux dimensions [3].
11Ce caractère hybride de la démarche répond à la pluralité des finalités de l’évaluation et se reflète dans la variété de ses effets : aide à la décision budgétaire, contribution à l’enrichissement du débat public, compte rendu, aide au pilotage, médiation, apprentissage, mobilisation, etc., sans oublier l’apport purement informatif, voire scientifique, de la recherche évaluative.
12L’évaluation présente a priori un caractère plus opérationnel, avec des retombées décisionnelles plus directes, lorsqu’elle porte sur des programmes, dans la mesure où ceux-ci sont conçus et formatés pour atteindre des objectifs précis dans un temps donné. Lorsqu’elle porte sur un objet plus complexe comme une politique multi-objectifs et multi-acteurs, l’apport de l’évaluation se situe davantage dans sa contribution au renforcement de la cohérence de l’action et à la compétence des acteurs.
13Privilégier les usages internes de l’évaluation – l’apprentissage organisationnel au bénéfice d’une mise en œuvre plus cohérente et efficace de la politique – conduit logiquement à choisir une démarche plus participative. En revanche, si le but principal est d’informer de manière précise et impartiale les décideurs et le grand public, il est préférable de mettre l’accent sur les constats objectifs effectués par des experts indépendants. En pratique, toutefois, ces deux approches sont plus complémentaires que concurrentes et il est le plus souvent possible et souhaitable de les combiner.
L’évaluation comme outil de renforcement des capacités d’action collective
14Quelle que soit l’approche privilégiée, l’évaluation ne produit pas seulement des connaissances, mais aussi de nouvelles idées et une meilleure appréhension des problèmes. Sous certaines conditions, elle permet en outre à ceux qui y sont associés de s’approprier les objectifs de la politique évaluée, de donner un surcroît de sens à leur travail, de renforcer leurs compétences et leurs motivations. C’est, plus largement, un processus de « mise en pouvoir » (empowerment) qui facilite l’implication et le partage des responsabilités entre les différents protagonistes publics et privés de l’action publique. Pour les fonctionnaires, c’est une occasion privilégiée de s’exprimer sur les mesures qu’ils sont chargés de mettre en œuvre et d’être associés à leur amélioration. Au-delà de ses effets sur les motivations et compétences individuelles, une évaluation réussie participe à la dynamisation des réseaux d’acteurs constitués autour d’une politique. Elle facilite ainsi l’accumulation du « capital social » au sens du sociologue américain Robert Putnam, à savoir les ressources sociales qui rendent les individus capables d’agir collectivement en vue de leur bénéfice mutuel [4].
15Cette manière de concevoir l’évaluation est en phase avec une vision systémique de la gouvernance. Loin de se limiter à l’économie du pouvoir, la gouvernance peut être vue comme une écologie des systèmes d’action. Ainsi comprise, elle reflète le caractère multipolaire et interactif du fonctionnement des sociétés contemporaines et des institutions qu’elles se sont données. Le rapport hiérarchique entre gouvernants et gouvernés, sans disparaître, tend à perdre de son évidence face à la démultiplication des lieux et des jeux de pouvoir et des mécanismes d’influence. Concevoir l’évaluation comme un dispositif d’apprentissage collectif prend tout son sens dans une telle perspective.
Des retombées souvent difficiles à mesurer
16Si l’évaluation est avant tout un processus d’éclairage et de renforcement des dispositifs de gouvernance, il ne faut pas s’attendre à ce que ses retombées les plus importantes et les plus durables soient aisément observables. Au niveau international, toutes les études disponibles sur l’impact de l’évaluation soulignent son caractère indirect et diffus (Perret, 2014, chap. V). Loin de se limiter à la prise en compte des conclusions consignées dans un rapport, l’influence d’une évaluation emprunte de multiples canaux, pendant et après son déroulement. Le rapport écrit transmis au commanditaire n’est d’ailleurs pas toujours le vecteur le plus efficace des enseignements de l’évaluation. Comme le résume le théoricien de l’évaluation Michael Patton (1997), « les évaluations sont utiles d’une manière qui ne se laisse pas appréhender par une focalisation étroite sur la mise en œuvre des recommandations ou la prise de décision concrète. La participation à un processus d’évaluation affecte les manières de penser au sujet du programme ; elle peut clarifier les objectifs, renforcer (ou affaiblir) les engagements individuels, et réduire les incertitudes ; le processus est susceptible de stimuler la compréhension, avec des conséquences qui peuvent ne pas être évidentes à court terme. »
17Dans le même sens, des études américaines ont montré que les décideurs ont rarement une connaissance directe des rapports d’évaluation (Weiss, 1998). Lorsqu’ils s’approprient leurs conclusions, c’est souvent par des voies indirectes : « Différentes commissions, clubs et organes de réflexion, ainsi que des consultants, se servent de résultats d’évaluations et réinjectent ceux-ci dans leurs papiers, qui à leur tour atteignent les décideurs. Si les résultats apparaissent dans les mass médias, les décideurs ne peuvent pas les ignorer. » (Weiss, 1999)
18L’évaluation participe donc des effets sociaux diffus de l’accumulation des connaissances, ce qui ne doit pas conduire à oublier l’apport spécifique que constitue sa capacité à informer plus directement les processus d’action et de décision.
Qui doit évaluer ?
19L’évaluation n’est pas l’affaire d’un corps de spécialistes. C’est un processus social mettant en jeu différentes catégories de protagonistes : commanditaires politiques, fonctionnaires assurant des fonctions de maîtrise d’ouvrage, membres des instances d’évaluation, méthodologues et enfin « chargés d’évaluation ». Ce dernier terme est parfois préféré au terme d’évaluateur pour désigner les professionnels chargés de mener les travaux d’enquête, d’étude et de recherche nécessaires à l’évaluation (économistes et chercheurs en sciences sociales, statisticiens, experts sectoriels des politiques concernées, consultants, auditeurs et membres de corps d’inspection). Le développement de l’évaluation repose autant sur la qualification des commanditaires que sur celle des évaluateurs, consultants, auditeurs et membres de corps d’inspection.
20L’évaluation n’est ni pure connaissance, ni pur mécanisme politique. La difficulté de trouver un équilibre et une cohérence entre ces deux dimensions implique d’examiner avec soin les modalités de pilotage de l’évaluation. Celles-ci « doivent permettre un ajustement réciproque des contraintes de l’action publique et des exigences d’une démarche cognitive rigoureuse, sans sacrifier l’une à l’autre. » (Conseil scientifique de l’évaluation, 1996, p. 37). L’importance de cet ajustement appelle un travail de médiation entre le commanditaire et le ou les chargés d’évaluation. Un responsable administratif peut certes s’adresser directement à un expert ou à un consultant pour lui confier la réalisation d’une d’évaluation. Le prestataire s’engage alors à répondre aux questions du commanditaire dans les conditions précisées dans un cahier des charges contractuel. Cependant, même dans les cas simples, la rédaction d’un document suffisamment précis pour orienter le travail de l’évaluateur peut s’avérer une tâche complexe pour laquelle le commanditaire doit se faire assister. Si l’on souhaite en outre accroître la crédibilité de l’évaluation et faciliter son appropriation collective, la solution logique est de mettre en place un comité de pilotage ou, dans la terminologie française, une « instance d’évaluation ». Dans un schéma idéal, ce groupe devrait être composé paritairement de personnes impliquées dans la politique à titre de décideurs ou d’acteurs administratifs et, d’autre part, de « parties prenantes » extérieures au système décisionnel (associations, représentants des bénéficiaires de l’action, professionnels et experts indépendants).
21Créer les conditions d’un pilotage et d’une appropriation de l’évaluation par un groupe de personnes incarnant des points de vue et des compétences diversifiées constitue la meilleure manière d’appliquer le « Principe de pluralité » inscrit en 2006 dans la Charte de l’évaluation de la Société française de l’évaluation : « L’évaluation s’inscrit dans la triple logique du management public, de la démocratie et du débat scientifique. Elle prend en compte de façon raisonnée les différents intérêts en présence et recueille la diversité des points de vue pertinents sur l’action évaluée, qu’ils émanent d’acteurs, d’experts ou de toute autre personne concernée. Cette prise en compte de la pluralité des points de vue se traduit – chaque fois que possible – par l’association des différentes parties prenantes concernées par l’action publique ou par tout autre moyen approprié ».
Un développement réel, des usages décisionnels et budgétaires encore insuffisants
22L’histoire française de l’évaluation des politiques publiques est marquée par plusieurs tentatives d’institutionnalisation aux fortunes diverses, depuis la Rationalisation des choix budgétaires (RCB) dans les années 1970 en passant par le dispositif interministériel crée par Michel Rocard en 1990 [5]. La plus récente est le lancement en 2012 d’un programme pluriannuel d’évaluations de politiques publiques dans le cadre de la politique de modernisation de l’action publique (MAP) [6]. Succédant à la Revue générale des politiques publiques (RGPP) lancée en 2007, il s’en démarque par sa volonté de faire porter l’analyse sur les politiques elles-mêmes (et plus seulement sur l’organisation administrative). Tout en assumant un objectif prioritaire d’économie budgétaire, la démarche adoptée se veut plus conforme aux exigences d’une véritable évaluation, c’est-à-dire méthodique et participative. En dépit de contraintes de délais qui n’ont pas permis d’approfondir certains thèmes comme ils auraient dû l’être, le bilan que l’on peut tirer de cette initiative est largement positif [7]. Elle marque un réel progrès dans la mobilisation de l’évaluation des politiques publiques à des fins décisionnelles.
23Malgré son caractère innovant, le dispositif d’évaluation ex-ante de la loi Macron mis en place sous l’égide de France Stratégie est plus critiquable dans la mesure où il n’offre pas les garanties d’un débat suffisamment ouvert sur le questionnement évaluatif. La composition de la commission d’évaluation est en effet loin de refléter la diversité des points de vue pertinents sur les sujets abordés. Bien qu’elle ait pour mission d’évaluer les effets des mesures dans leurs dimensions environnementales et sociales, on n’y trouve aucun spécialiste du social, ni de l’environnement et les ministères techniques concernés n’ont pas été associés à la démarche [8].
24Parallèlement à ces efforts récurrents pour en faire un rouage du gouvernement au niveau interministériel, l’évaluation se développe sous des formes diverses dans l’ensemble des administrations, services et établissements publics, y compris dans les régions, départements et communes. Dans la base de données qu’elle vient de constituer, la Société française de l’évaluation a recensé 1 200 évaluations lancées entre 2007 et 2015. Cet ensemble recouvre certes des pratiques d’inégales portée et qualité, mais tout laisse penser que les progrès sont réels. Le retard qu’accusait la France sur les pays de langue anglaise et d’Europe du nord est en voie d’être comblé, même si, comparativement à ces pays, les usages directement décisionnels et budgétaires de l’évaluation restent faibles. Cette déficience s’explique moins par le manque d’évaluateurs compétents que par une culture politique caractérisée par une faible préoccupation pour l’efficacité réelle de la dépense publique.
Bibliographie
- Conseil scientifique de l’évaluation (1996), Petit guide de l’évaluation, La Documentation française, Paris.
- Duflo E. (2013), Expérience, science et lutte contre la pauvreté, Hachette, Paris.
- Patton M. Q. (1997), Utilization-Focused Evaluation : the New Century Text, Sage, Thousand Oaks.
- Perret B. (2014), L’évaluation des politiques publiques, La Découverte, Paris.
- Putnam R. (1995), « Bowling alone : America’s declining Social Capital », The Journal of Democracy, 6(1), p. 65-78.
- Regeer B. J., de Wildt-Liesveld R., van Mierlo B. et Bunders J. F. G. (2016), « Exploring ways to reconcile accountability and learning in the evaluation of niche experiments », Evaluation, 22(1), p. 6-28.
- Weiss C. H. (1998), « Have we learned anything new about the use of evaluation ? », American Journal of Evaluation, 19(1), p. 21-23.
- Weiss C. H. (1999), Intervention orale au premier congrès de la Société française de l’évaluation.
Notes
-
[1]
Décret du 18 novembre 1998 créant le Conseil national de l’évaluation, rapporté en 2007.
-
[2]
Site de la Commission consulté le 8 mars 2016 : http://ec.europa.eu/smart-regulation/impact/index_en.htm
-
[3]
Pour une réflexion théorique sur ce sujet, voir Regeer et al. (2016).
-
[4]
« Le capital social fait référence à des caractéristiques de l’organisation sociale telles que les réseaux, les normes et la confiance sociale, qui facilitent la coordination et la coopération en vue d’un bénéfice mutuel » (Putnam, 1995).
-
[5]
Conseil scientifique de l’évaluation (1990-1998) puis Conseil national de l’évaluation (1998-2002).
-
[6]
Comité interministériel de l’action publique du 18 décembre 2012.
-
[7]
52 évaluations étaient achevées en 2015, dont 17 ont donné lieu à un plan d’action, 24 rapports ont été publiés, 20 % de la dépense publique a été passée en revue et les évaluations ont permis de réaliser 4Mds€ d’économies en 2 ans (chiffres affichés par le Sgmap).
-
[8]
Ajoutons que la création de cette commission en janvier 2015 a fait suite à une première étude d’impact sur laquelle le Conseil d’État avait émis un avis défavorable en décembre 2014, pointant du doigt « le caractère lacunaire et les graves insuffisances de l’étude d’impact sur nombre de dispositions du projet ». Du fait du caractère tardif de sa constitution, la commission n’a pu rendre un rapport de synthèse avant le vote de la loi.