Notes
-
[1]
Les débats du colloque « Rendre des comptes-rendre compte », ENA, Strasbourg, 3-4 avril 2016, ont montré la difficulté à se mettre d’accord sur le sens à donner à des expressions telles que « rendre des comptes », « reddition de comptes », « redevabilité », « rendre compte », accountability, etc.
-
[2]
La « reddition des comptes », originaire du droit notarial, est l’extension au secteur public de l’« acte par lequel on présente l’état de la recette et de la dépense relatif aux biens d’autrui que l’on a administré », Le Robert, Dictionnaire historique de la langue française.
-
[3]
À lui tout seul, M. Q. Patton l’a promu sous six labels : alternative evaluation, utilization-focussed evaluation, qualitative evaluation, creative evaluation, practical evaluation, developpemental evaluation. Mais il existe de nombreuses autres appellations : 4th generation evaluation, stakeholder evaluation, democratic evaluation, pluralistic evaluation, participative evaluation, empowerment evaluation. En France, c’est le label « évaluation pluraliste » qui est le plus employé, notamment par la Société française de l’évaluation (SFE). En 2012, le gouvernement socialiste la rebaptise « évaluation partenariale ». L’appellation « évaluation collaborative » a été adoptée par l’American Evaluation Association comme vocable neutre, évitant les revendications de vertus auto-proclamées de certains de ces labels.
-
[4]
« Associer les partie prenantes » a ce sens précis de donner un rôle décisionnel aux parties prenantes qu’il convient de distinguer de leur consultation, qui est une démarche fréquente dans les évaluations par les preuves.
-
[5]
Circulaire d’organisation de l’évaluation des contrats de plan État-région de 1993
-
[6]
Nioche, J-P. (2010), Les quatre niveaux d’implication des parties prenantes recommandés dans les standards nationaux et internationaux d’évaluation, Note pour les débats au sein de la SFE, disponible auprès de l’auteur.
-
[7]
Loi constitutionnelle n° 2003-276 du 28 mars 2003 relative à l’organisation décentralisée de la République et loi organique n° 2003-704 du 1er août 2003 relative à l’expérimentation par les collectivités territoriales.
-
[8]
Ainsi, les 60 premières évaluations réalisées dans le cadre du SGMAP ont été réalisées par 240 membres des inspections générales et 10 « personnalités extérieures » non identifiées (SGMAP, 2014)
-
[9]
SGMAP, 2014, ibid.
1L’obligation de rendre des comptes s’est instituée au cours des siècles comme un marqueur de la démocratie. Toute organisation bénéficiant d’un financement public est ainsi tenue de rendre des comptes, au sens précis du terme, de façon régulière, à une instance de supervision. Ces pratiques se sont diversifiées au cours du temps, sous l’influence de la multiplication des formes de l’action publique et de l’ajout de critères allant au-delà de la dimension comptable. Mais elles restaient inscrites dans une logique organisationnelle : une organisation rend des comptes à une instance de supervision.
2 Le développement de l’évaluation des politiques publiques a engendré des modalités nouvelles de « rendu de comptes » qui s’éloignent radicalement du modèle original. L’objet sur lequel des « comptes » sont rendus n’est pas une organisation, mais une politique publique, c’est-à-dire un programme d’action, qui coïncide rarement avec une structure administrative unique. Il n’y a pas forcément une instance de supervision à laquelle des comptes sont rendus, car il peut s’agir d’instances multiples ou de la société tout entière. Le calendrier du « rendu de comptes » peut ne pas être régulier, mais circonstanciel. Les critères selon lesquels il est présenté peuvent être comptables et financiers, l’être partiellement, ou être totalement indifférents à cette dimension.
3 Par le mot « évaluation » nous désignons ici l’évaluation des politiques publiques au sens international du terme, c’est-à-dire le recours aux méthodes de recherche en sciences sociales pour apprécier, empiriquement, le lien entre un programme d’action d’une autorité publique visant à influencer la société et les conséquences qu’il a produites. Ce qui limite le champ aux évaluations dites in itinere ou ex post, qui reposent sur l’observation du réel, laissant de côté les études d’aide à la décision, parfois baptisées « évaluation ex ante », qui sont d’une autre nature, car reposant sur des hypothèses et des prévisions.
4 En l’absence d’un consensus sur un vocabulaire commun [1], nous précisons nos propres conventions de langage. Les expressions « reddition de comptes » [2], « redevabilité », qui en découlent, et « rendre des comptes » désignent l’acte par lequel des comptes, au sens comptable et financier, sont rendus à propos d’une politique publique, même si les critères d’évaluation débordent les données comptables. « Rendre compte » est une expression plus ambiguë, car utilisée aussi bien pour désigner l’acte par lequel chaque niveau d’une hiérarchie informe de son action le niveau supérieur, que pour parler de la façon dont une action publique et ses effets sont analysés et expliqués à la société. Or il y a clairement une discontinuité entre ces deux acceptions. Nous n’utilisons ici l’expression « rendre compte » que dans le deuxième sens, c’est-à-dire comme la fonction que remplit une évaluation en analysant et en expliquant les conséquences qu’une politique a eu dans la société. Les évaluations peuvent donc avoir pour objet de « rendre des comptes », de « rendre compte », ou les deux.
5 Une mise en perspective conceptuelle, historique et internationale, est indispensable pour identifier les capacités des différentes formes d’évaluation à rendre des comptes et à rendre compte, avant d’apprécier leurs rôles respectifs en cette matière, en France.
Les trois paradigmes de l’évaluation et leur potentiel en termes de reddition de comptes
6En un siècle d’existence aux États-Unis et un demi-siècle de diffusion à travers le monde, l’évaluation s’est diversifiée dans ses modalités et ses usages. Au point que certains ont pu identifier 28 écoles de pensée en la matière (Alkin, 2004). Cette diversité apparente devant beaucoup aux efforts de marketing des auteurs pour se distinguer les uns des autres, nous avons proposé une typologie simple, robuste, et épistémologiquement fondée, des paradigmes d’évaluation (Nioche, 2010). Elle est composée de trois idéaux-types wébériens, dont l’une des caractéristiques est leurs capacités plus ou moins affirmée à « rendre des comptes » et/ou à « rendre compte ».
L’évaluation stratégique, ou « par les preuves »
7C’est le concept original de l’évaluation, le plus répandu dans le monde et le premier apparu en France (Nioche, 1982). Il consiste à porter un jugement indépendant sur la valeur d’une intervention publique, à partir d’une analyse de ses conséquences basée sur une recherche empirique conforme aux méthodes de recherche en sciences sociales. Cette démarche est « stratégique » en ce qu’elle suppose l’ouverture à toutes les conclusions, y compris la mise en cause radicale de la politique. Elle s’inscrit dans une perspective de démocratie représentative, éclairée par la « science ». Elle est nommée « évaluation » tout court jusque dans les années 1990, quand le développement de nouvelles formes d’évaluation conduit à la recherche d’une appellation distinctive. C’est le monde médical qui va lui donner sa dénomination actuelle d’evidence-based evaluation (Clarke, 2006). Cette reformulation confirme la nature scientifique de la démarche et reconnaît la variété des méthodologies disponibles, des plus probantes sur le plan scientifique, les évaluations expérimentales, aux plus faibles sur ce plan, l’étude de cas ou l’avis des parties prenantes.
8 Chaque évaluation par les preuves étant construite « sur mesure », elle peut être centrée sur la reddition des comptes, traiter cette question parmi d’autres ou lui être indifférente, par exemple ne répondre qu’à la question de l’efficacité de la politique évaluée. Sa plus ou moins grande contribution à la décision budgétaire dépend donc de la commande du prescripteur.
L’évaluation collaborative/pluraliste ou « par la délibération »
9Née aux États-Unis, notamment sous l’impulsion de M. Q. Patton (1975), cette famille d’évaluation est celle qui a donné lieu au plus grand nombre de dénominations [3]. Alors qu’elle a un fondement commun, qui est de considérer que la légitimité d’une évaluation est d’ordre politique et social. Il convient donc de rechercher, entre les parties prenantes à la politique, un « diagnostic partagé », une « co-production de la connaissance » et des conclusions reposant sur un « consensus », ou du moins sur un « compromis raisonnable » entre les intérêts en présence. Pour atteindre ces objectifs l’évaluation doit être pilotée par une instance à laquelle sont associées les parties prenantes [4]. La collecte des données est confiée à des « chargés d’évaluation », qui ne sont pas des évaluateurs indépendants de plein exercice, puisque le dernier mot revient à cette instance.
10Importée en France à la fin des années 1980 (Monnier, 1987), cette forme d’évaluation va se voir adoptée par les mouvements socialistes en faveur de l’auto-gestion et de la démocratie participative (Viveret, 1989). Elle va devenir la doctrine officielle des organes d’évaluation créées par les gouvernements socialistes : le Conseil scientifique de l’évaluation, créé par M. Rocard, le Conseil national de l’évaluation, créé par L. Jospin, la « Mission évaluation » du Secrétariat général à la modernisation de l’action publique créée par J.-M. Ayrault (SGMAP, 2012).
11 Compte tenu de ses prémisses épistémologiques, cette forme d’évaluation est la moins apte à servir la décision budgétaire dans une période de recherche d’économies. D’une part, parce que les données comptables et financières ne sont pas celles qui se prêtent le mieux à la négociation. D’autre part, parce que, parmi les parties prenantes, il y a toujours des bénéficiaires de la politique. Se donner pour règle la recherche d’un consensus pousse donc à des conclusions en faveur d’une demande de ressources supplémentaires.
L’évaluation managériale ou « par les normes de pilotage »
12Ce type d’évaluation est une procédure de jugement sur les conséquences des programmes d’action publique qui utilise, comme critères, des normes et des objectifs formels définis dans un cadre budgétaire préétabli. Il convient toutefois de mettre en garde contre l’usage trompeur de l’expression « évaluation managériale » par certains militants de l’évaluation collaborative/pluraliste, qui utilisent cette expression, non pour désigner l’évaluation proprement managériale, mais pour stigmatiser l’évaluation par les preuves. Le qualificatif « managérial », à leurs yeux péjoratif, ayant pour objet servir de repoussoir afin de valoriser la doctrine qu’ils promeuvent (Monnier, 1987, 80-81 ; Viveret, 1989, 27 ; Trosa, 2004, 25 ; Barbier et Matyjasik, 2010).
13La véritable évaluation managériale connaît deux formes, l’une et l’autre issue de techniques de management. La première s’inspire du contrôle de gestion. Elle est systématique et s’inscrit dans les cadres budgétaires organisés par programmes, comme la LOLF, dont elle constitue la phase d’évaluation. La deuxième s’inspire des normes de l’audit. Elle est ad hoc et consiste en l’évaluation d’un programme spécifique. Le performance audit anglais en a été le prototype, mais elle est aussi nommée program review. Ces deux formes existent dans de nombreux pays, au niveau national et territorial. Elles sont, par construction, bien articulées avec le principe de reddition des comptes, tout en n’épuisant pas le champ des besoins d’évaluation. En France, elles sont pratiquées dans les collectivités territoriales (Baslé, 2008), mais peu au niveau de l’État.
14 Chacun de ces trois paradigmes a donc des fondements épistémologiques, méthodologiques et démocratiques suffisamment distincts pour qu’ils constituent un référentiel robuste, facilitant les comparaisons internationales et l’analyse des pratiques dans un pays. Chacun a des conditions d’emploi privilégiées et des contre-indications majeures, que nous n’avons pas la possibilité d’exposer ici. Ces idéaux-types peuvent exister à l’état pur, mais ils sont aussi un moyen d’analyser les formes hybrides. Certaines de celles-ci sont construites de façon consciente et délibérée pour répondre à des besoins ou à des contextes institutionnels particuliers. Mais d’autres sont moins consistantes, les commanditaires, les concepteurs de dispositifs d’évaluation, les évaluateurs eux-mêmes n’étant pas toujours conscients des logiques sous-jacentes qui donnent, ou non, une cohérence à leurs pratiques.
En france, une configuration singulière, peu favorable à la reddition des comptes
15La place relative qu’occupent ces trois types d’évaluation dans chaque pays est liée à des facteurs structurels, tels que la constitution, le système politique, le régime juridique, la culture administrative, et à des facteurs conjoncturels, comme la situation des finances publiques ou les préférences idéologiques des partis au pouvoir.
Une institutionnalisation fragile, des stratégies d’évaluation ambigües
16En France, les facteurs structurels étaient défavorables au développement de l’évaluation, qu’elle qu’en soit la forme. Le caractère quasi-sacré attribué à l’État, avec son corollaire, l’absence d’une tradition forte d’accountability (au sens d’obligation faite aux organes publics à la fois de rendre compte de leur action et de rendre des comptes sur l’utilisation des crédits qui y étaient liés), la prééminence de l’exécutif, un budget axé sur les moyens, la culture administrative du contrôle, la méfiance des responsables politiques et de l’administration envers les sciences sociales, constituaient autant de freins au développement de l’évaluation (Nioche, 1982). Les facteurs conjoncturels ont donc joué un rôle essentiel dans le développement de l’évaluation, dont il ne faut pas s’étonner qu’il soit quelque peu chaotique.
17Les travaux sur l’histoire de l’évaluation en France sont rares (Spenlehauer, 1998). La tentative la plus récente conclut à « une institutionnalisation fragile, tout à la fois mouvante et dispersée » d’un secteur à l’autre et d’une institution à l’autre, aussi bien dans les collectivités territoriales que dans les différentes sphères étatiques : gouvernement et administrations, opérateurs de l’État, Parlement, Cour des comptes, etc. (Lacouette-Fougère et Lascoumes, 2013). Cet exercice d’analyse institutionnelle nous dit peu de choses sur les types d’évaluation pratiqués et, plus étonnant, rien sur le rôle du facteur politique dans ce développement désordonné. Alors que celui-ci devient compréhensible quand on prend en compte les actions engagées en matière d’évaluation par les différentes majorités lors des alternances politiques.
La gauche se dote, dans les années 1990, d’une doctrine de l’évaluation sur le modèle collaboratif/pluraliste
18Cette approche de l’évaluation se forge sous le gouvernement de Michel Rocard (mai 1988 - mai 1991) à partir du Rapport Viveret (1989) et de la pratique du Conseil scientifique de l’évaluation (CSE) créé en 1990 auprès du Premier ministre. Il en ressort que l’évaluation doit être : menée sous l’égide de l’exécutif, globale, avec une ambition d’exhaustivité ; collaborative/pluraliste (ceux qui effectuent le travail de collecte et d’analyse des données sont nommés « chargés d’évaluation » pour bien souligner qu’ils ne sont pas des évaluateurs de plein exercice et que le dernier mot appartient à une instance dans laquelle siègent les parties prenantes) ; plus procédurale que substantielle (l’organisation de la conduite de l’évaluation est plus importante que la méthodologie) ; universelle (les caractéristiques précédentes doivent s’appliquer de manière identique, qu’il s’agisse d’une politique régalienne de l’État ou d’une politique sociale d’une municipalité).
19 Cette conception spécifique est diffusée dans les administrations d’État, les collectivités territoriales et chez les consultants travaillant pour elles, à la fois par mimétisme institutionnel, par la voie règlementaire [5], par le guide édité par le CSE (1996). Après l’échec et la disparition du CSE et une éclipse pendant les deux premières années de la Présidence Chirac, cette conception de l’évaluation renaît sous le gouvernement de Lionel Jospin (juin 1997 - mai 2002) avec la création en 1998 du Conseil national de l’évaluation (CNE), qui va connaître rapidement le même sort que le CSE.
20 La diffusion de cette approche va être relayée par la Société française d’évaluation (SFE), créée en 1999, notamment par des anciens du CSE. Sa Charte de l’évaluation énonce dans son premier principe, dit de « pluralité », que les parties prenantes doivent être « associées » à l’évaluation (SFE, 2006), ce qui est réaffirmé dans ses Projets associatifs 2010-2013 et 2014-2017 (SFE, 2014) ; règle particulière héritée directement de « l’instance pluraliste » du « modèle CSE » qu’on ne retrouve pas dans les autres standards nationaux et internationaux en matière d’évaluation [6].
21 La démarche étant plus idéologique que pragmatique, la leçon des échecs du CSE et du CNE ne va pas être tirée. Après une nouvelle éclipse sous les gouvernements de droite (2002-2012), les mêmes principes vont être réactivés au niveau politique à la suite du « grand chelem » de 2012 qui voit la gauche contrôler l’exécutif, les deux assemblées et la plupart des collectivités locales. L’évaluation collaborative/pluraliste est alors de nouveau mise en avant, en particulier avec la mise en place d’un dispositif national d’évaluation rattaché au Premier ministre par le gouvernement de Jean-Marc Ayrault : le Secrétariat général pour la modernisation de l’action publique (SGMAP, 2012). L’ambition affichée est considérable : évaluer l’ensemble du champ des dépenses de l’État dans la durée du quinquennat. L’approche à suivre est explicite : l’évaluation doit être « partenariale », nouveau mot pour désigner l’évaluation collaborative/pluraliste, sous contrôle de l’exécutif, confiée aux ministres et aux inspections générales placées sous leur autorité, procédurale et uniforme.
22Ainsi la gauche s’est-elle dotée d’une doctrine quant à la façon de faire des évaluations, mais n’a pas créé des conditions permettant à l’évaluation de s’inscrire de façon durable dans le paysage institutionnel. Le constat est presque inverse pour la droite.
La droite, longtemps réticente, promeut le principe de l’évaluation externe à partir de 1995
23La droite a été longtemps réservée face à l’idée d’évaluation. En témoigne l’enterrement du premier rapport officiel sur le sujet (Deleau, Nioche, Penz, Poinsard, 1986), qui avait le défaut d’avoir été commandé par la gauche (Jacques Delors, ministre des finances et Michel Rocard, ministre du plan) et remis juste après le retour de la droite au gouvernement, lors de la première cohabitation.
24Les choses ont changé quand Jacques Chirac arrive au pouvoir en 1995. Le lendemain même de son élection le nouveau président annonce la création de deux instances d’évaluation à l’Assemblée nationale. Il inaugure ainsi une période nouvelle voyant la droite mener des réformes structurelles favorisant l’évaluation externe à l’administration. Cette première initiative va connaître plusieurs aléas avant de donner lieu à la création du Comité d’évaluation et de contrôle des politiques publiques de l’Assemblée nationale, après la réforme de la Constitution de 2008. Celle-ci constitue une novation majeure, car elle donne une base constitutionnelle à l’évaluation externe des politiques de l’État et un rôle spécifique en la matière au Parlement et à la Cour des comptes avec l’introduction de nouvelles dispositions selon lesquelles le Parlement contrôle l’action du gouvernement avec l’assistance de la Cour des comptes et qu’il évalue les politiques publiques. Moins spectaculaires, mais importante pour des raisons méthodologiques, deux lois vont faciliter le recours à l’expérimentation en affirmant qu’elle n’est pas contradictoire avec le principe d’égalité de tous devant la loi [7].
25Inversement, la plus visible des initiatives d’apparence évaluative mise en place sous la présidence de Nicolas Sarkozy, la Révision générale des politiques publiques (RGPP), n’a pas constitué un modèle porteur d’avenir. Les ambitions initiales, de type évaluatif, ont été abandonnées pour des raisons d’équilibre politique entre l’exécutif et la majorité parlementaire. La RGPP n’a pas été une politique de l’évaluation, mais une politique de rationalisation de l’organisation administrative de l’État (fusion de directions ou d’organismes, réorganisation de services, simplification de procédures, etc.) avec l’aide de cabinets de consultants.
26 La droite a donc été à l’origine de réformes structurelles en faveur de l’évaluation externe, mais sans avoir une doctrine quant à sa mise en œuvre, notamment sur la question de savoir si toute évaluation doit se conformer à un paradigme unique et, dans l’affirmative, lequel, ou si la variété des évaluations doit prévaloir, chaque institution devant pratiquer un, ou plusieurs, type(s) d’évaluation(s) conforme(s) à sa mission et à ses compétences.
Depuis 2012, la préférence politique pour l’évaluation collaborative/pluraliste joue en défaveur de la reddition des comptes
L’évaluation par les preuves est minoritaire et peu soutenue politiquement
27 L’évaluation stratégique ou « par les preuves » est la démarche de référence dans la plupart des pays et chez les grands prescripteurs internationaux : Commission européenne, OCDE, Banque mondiale, FMI, PNUD, OMS, UNESCO, etc.
28 L’évaluation « par les preuves », notamment expérimentale, est née en France dans le domaine de l’épidémiologie et des politiques de santé publique (Schwartz, 1984), mais elle est restée longtemps méconnue des autres secteurs. Elle va être en revanche très développée à l’international sous le nom de Randomized Controlled Trial (RCT), en particulier à l’égard des politiques d’aide au développement, où certains économistes français jouent un rôle majeur (Duflo, 2009). Par ce détour international, ce type d’évaluation a trouvé un écho dans la communauté des économistes français en France, dont certains vont s’émerveiller de la « nouveauté » de la démarche… (L’Horty et Petit, 2011). Cet intérêt va se manifester à l’occasion du programme d’évaluations financé par le Fond d’expérimentation pour la jeunesse dirigé par Martin Hirsch sous la présidence de Nicolas Sarkozy. L’élan se prolonge dans des secteurs tels que le travail, les aides sociales, l’éducation, la fiscalité, le développement agricole, tout en restant limité par la faible demande politique et administrative pour ce type de travaux. Conduits par des économistes universitaires, ils sont rarement centrés sur le rendu de comptes financiers, mais la préoccupation de l’économie de la dépense publique y est centrale.
L’hybride étrange de l’évaluation pluraliste/collaborative avec la tradition du contrôle : la revanche des inspections générales
29 L’évaluation collaborative est généralement peu pratiquée au niveau des États. Elle est surtout développée au niveau local et dans des secteurs à forte dimension « sociale » tels que l’éducation, les politiques urbaines ou les aides sociales. Elle est plus répandue en France que dans d’autres pays et, par influence linguistique et mimétisme induit, plus présente au Québec qu’au Canada, en Wallonie qu’en Belgique, en Suisse romande qu’en Suisse.
30 En France, la victoire de la gauche en 2012 s’est traduite par une relance de l’évaluation collaborative, mais avec un élément nouveau, l’appui des inspections générales. En 1989, le rapport de Patrick Viveret prônait l’évaluation collaborative, qu’il nommait « démocratique », contre le « monopole de l’expertise légitime » des grands corps de l’État. Ce mot d’ordre n’avait fait que renforcer la méfiance des inspections générales vis-à-vis de l’idée d’évaluation, qu’elles connaissaient mal et qu’elles voyaient comme un concept rival de leur fonction. L’évaluation progressant néanmoins, cette résistance a parfois été camouflée sous un discours récupérateur, mais peu convaincant, laissant entendre que ces inspections faisaient de l’évaluation « depuis toujours ».
31 Le fait que les missions liées à la RGPP (2007-2012) aient été confiées à 90 % à des consultants a été vécu comme un désaveu et une humiliation par de nombreux membres des corps d’inspection. Avec le retour de la gauche au pouvoir et sa préférence pour une évaluation sous l’égide de l’exécutif, une nouvelle alliance se crée. Sur commande du nouveau gouvernement, deux rapports des trois inspections générales interministérielles vont dire tout le mal qu’il faut penser de la RGPP (IGA, IGF, IGAS, 2012 a), et formater administrativement une procédure d’évaluation, rebaptisée « partenariale » évoquée ci-dessus (IGA, IGF, IGAS, 2012 b). Une circulaire du Premier ministre du 7 janvier 2013 en reprend les termes, en précisant que l’évaluation doit « associer les parties prenantes » et que la « co-production » doit en être la règle.
32 Cette nouvelle donne se traduit par le fait que les évaluations conduites sous la houlette du SGMAP sont quasi-exclusivement confiées aux membres des inspections générales [8]. Ceux-ci se sont ainsi vus attribuer, d’un coup de baguette politique, une expertise en évaluation et un quasi-monopole dans l’« offre » d’évaluation au niveau de l’État, et alors même que les inspections ne sont pas indépendantes de l’exécutif ou, peut-être, pour cette raison. En l’attente d’une méta-évaluation des évaluations ainsi réalisées, la présentation faite par le SGMAP de ses propres travaux [9] laisse entrevoir un hybride étrange entre l’inspection à la française et l’évaluation collaborative, l’une et l’autre reposant pourtant sur des principes opposés.
33 Parmi les universitaires, ce sont les sociologues qui ont profité en priorité de l’orientation « collaborative » de la demande des exécutifs socialistes en matière d’évaluation, accompagnés par des politologues qui partagent avec eux tout ou partie des prémisses de cette forme d’évaluation : préférences pour la démocratie participative, la démarche constructiviste, les méthodes qualitatives, etc. (Lascoumes et Setbon, 1996 ; Kessler, Lascoumes, Setbon, Thoenig, 1998). Néanmoins la science politique française reste peu active dans le domaine de l’évaluation, produisant quelques recherches « sur » l’évaluation, prise comme objet, ses acteurs, son institutionnalisation, et très peu « en » évaluation, visant la réalisation effective d’évaluations ou le progrès des méthodes.
34 De leur côté, les consultants se sont d’autant plus volontiers adaptés à une demande d’évaluation collaborative que celle-ci est proche des méthodes de « gestion du changement » familières aux consultants en management et moins soumise à une régulation de la qualité que les deux autres paradigmes.
35 L’évaluation collaborative/pluraliste/partenariale, est ainsi devenue la doctrine officielle du gouvernement français, ce qui constitue, sans doute, une première mondiale au niveau des États nationaux, mais se traduit par une faiblesse notable pour ce qui est de sa capacité à être utilisée à des fins de reddition des comptes.
L’évaluation managériale et sa contribution potentielle à la reddition des comptes, sont délaissées par les institutions dont c’est la mission.
36L’évaluation managériale s’est développée dans les dernières décennies en parallèle avec la diffusion des systèmes budgétaires orientés vers les résultats (performance based budgeting) et celle du New Public Management, tout en s’appuyant sur la tradition très ancienne de l’audit, auquel elle a ouvert des perspectives nouvelles. Or, on n’observe pas, en France, les synergies constatées dans de nombreux pays entre ces instruments, au profit d’un renforcement de la reddition des comptes : d’une part la doctrine du New Public Management n’a eu qu’un impact limité, et d’autre part la réforme fondamentale de la LOLF n’a pas produit les effets attendus en matière d’évaluation de programmes ; les institutions chargées du contrôle des comptes ne s’étant pas saisies de l’occasion que la loi organique représentait pour structurer et renforcer leur activité nouvelle d’évaluation.
37 De nombreuses collectivités territoriales ont mis en place des systèmes budgétaires par programmes, dans le même esprit que la LOLF, et les ont complétés par des dispositifs de suivi-évaluation de type managérial (Baslé, 2008). L’État n’a pas accompagné la LOLF par de tels dispositifs. L’évaluation managériale n’a été politiquement soutenue ni par la droite ni par la gauche. Par voie de conséquences, elle n’a été prioritaire ni pour les administrations, ni pour les institutions indépendantes de l’exécutif (Parlement, Cour des comptes) qui ont pour mission de contrôler son action.
38 La mise en œuvre de la LOLF comporte en principe une phase évaluative, chacun des programmes qui la compose devant faire l’objet d’un rapport annuel de performance (RAP), préparé par Bercy et associé à la loi de règlement présentée au Parlement. La formulation des objectifs et le choix des indicateurs de résultats, faits par les services, ont fait l’objet de critiques accablantes, les objectifs étant souvent ambigus et les indicateurs peu représentatifs des phénomènes qu’ils sont supposés analyser (Brunetière, 2006, 2013 ; Benzerafa et Gibert, 2016). Les RAP apparaissent ainsi relever davantage d’une routine administrative que d’un véritable exercice de rendu de comptes. À cela s’ajoute le peu d’appétence des parlementaires pour l’examen de la loi de règlement et des RAP, malgré les modifications du règlement de l’Assemblée en faveur du temps consacré à cet exercice.
39 L’administration financière ne faisant pas une évaluation rigoureuse et utilisable pour la décision des programmes de la LOLF, on aurait pu imaginer que la création du SGMAP allait combler cette lacune. Sa mission étant d’évaluer, dans le cadre du quinquennat, les politiques correspondant à l’ensemble des dépenses de l’État, la LOLF lui offrait une nomenclature de programmes couvrant l’ensemble des dépenses publiques, sans omission ni double emploi, et un système d’information budgétaire donnant les bases d’une reddition des comptes, programme par programme. Ce n’est pas la voie qui a été suivie. Le SGMAP évalue des « politiques » définies au fil de l’eau, au périmètre mal délimité. Il n’est donc pas à l’abri de « comptages multiples des dépenses », c’est-à-dire d’englober la même dépense au titre de plusieurs politiques. De plus les politiques publiques évaluées de la sorte couvrant en général un champ plus limité que celui d’un programme LOLF, il est certain qu’avec 80 évaluations achevées à la fin du quinquennat (cf. site SGMAP avril 2017), l’objectif originel d’évaluation systématique des dépenses de l’État, (135 programmes dans la LOLF), n’a pas été atteint.
40 Le même constat du faible recours à l’évaluation managériale et de la sous-utilisation de la LOLF s’applique aux contrôleurs externes de la dépense publique. Ni la Cour des comptes, ni l’Assemblée nationale, n’ont choisi d’articuler, ne serait-ce qu’en partie, leur nouvelle activité d’évaluation avec les catégories de programmes de la LOLF.
41 La réforme constitutionnelle de 2008 a donné une responsabilité nouvelle à la Cour en matière d’évaluation de politique publique, qu’elle exerce pour partie de son propre chef, pour partie sur demande de l’Assemblée nationale (deux rapports par an). La réponse de la Cour à cette mission, pour l’instant limitée à un petit nombre d’évaluations, est pleine d’ambigüités.
42 À l’étranger, les institutions suprêmes d’audit qui se sont engagées dans l’évaluation ont suivi deux modèles principaux. Le premier est celui du performance audit dont le prototype est celui du National Audit Office anglais. Il correspond à une extension du concept d’audit, d’une logique organisationnelle à une logique de programme, et d’une analyse des résultats opérationnels à celle des effets dans la société. Il s’appuie, en les élargissant, sur les compétences des auditeurs. Un petit nombre d’entre elles, ont suivi l’exemple du Government Accountability Office aux États-Unis en créant, à côté de leur activité d’audit, une division chargée de l’évaluation stratégique/par les preuves mais, tirant toutes les conséquences de ce choix, en la dotant de compétences en recherche par le recrutement de docteurs en économie, statistiques, sociologie, management, etc. La Cour française n’a choisi aucune de ces voies cohérentes : ni de faire de l’audit de programme au sein des chambres d’audit ; ni de faire de l’évaluation par les preuves au sein d’une division dédiée, avec des ressources spécifiques. Elle a décidé que l’activité d’évaluation relevait de toutes ses chambres, tout en rejetant le concept d’audit de performance. Ainsi le Premier président affirme-t-il que « les revues de programme ou audits de performance sont parfois assimilé à tort, à des évaluations. Or, ces travaux sont réalisés à partir des indicateurs existants et de façon moins approfondie que ne l’est une évaluation et, surtout, sans impliquer l’ensemble des acteurs ». Il ajoute que l’évaluation doit être « globale et partenariale » (Migaud, 2013). Ces formulations expriment ainsi la vision étonnante d’une institution d’audit qui rejette le type d’évaluation le plus proche de ses compétences et de sa vocation, pour un mélange inédit d’une l’évaluation par les preuves, pour laquelle elle est peu équipée, avec une évaluation collaborative, qui n’est guère dans sa culture, mais qui correspond à la doctrine du gouvernement au pouvoir. La Cour n’a donc pas, pour l’instant, une politique cohérente, transparente et conforme à son indépendance en matière d’évaluation.
43 Le Comité d’évaluation et de contrôle des politiques publiques (CEC) de l’Assemblée nationale s’est engagé dans une autre ambigüité en confondant l’« évaluation de politique », qui tente de fonder un jugement évaluatif sur des faits, avec l’« évaluation politique », privilège des élus, qui consiste à porter un jugement sur une politique à partir de choix de valeurs. La première exige une distance méthodologique et une indépendance des évaluateurs, que ne respecte pas la pratique du Comité. Ainsi a-t-on vu des députés, en charge d’une évaluation, animer eux-mêmes des focus groups dans leur circonscription, plutôt que les confier à des professionnels et dans des zones choisies pour des raisons fondées en méthodologie. L’attitude de l’Assemblée vis-à-vis des rapports que lui remet, à sa demande, la Cour des comptes relève du même esprit. Inclure un rapport d’évaluation de la Cour comme un élément dans un rapport plus vaste signé des députés revient à traiter la Cour comme un prestataire « chargé d’enquête » et non comme l’institution indépendante qu’elle est. Le désir de contrôle de l’information par les responsables politiques est universel et prévisible. C’est pourquoi la plupart des démocraties ont dotés leur parlement de dispositifs d’évaluation évitant la confusion des genres et des rôles.
Conclusion : mettre la diversité des évaluations au service de la double fonction de rendre des comptes et de rendre compte
44Reconnaître le pluralisme des évaluations est la condition d’un ancrage durable de l’évaluation en France et de sa mise au service d’une action publique plus efficace et plus responsable. Aucun des trois paradigmes que nous avons caractérisés, ni aucun modèle hybride, ne peut revendiquer légitimement être le tout de l’évaluation et prétendre imposer à tous ses standards. Si certains prennent cette posture, c’est par sectarisme disciplinaire ou idéologique, ou tout simplement par ignorance de la variété des types d’évaluation. Les comparaisons internationales démontrent que de nombreux pays ont créé les conditions d’une institutionnalisation de l’évaluation, sous des formes diversifiées, stables et non exclusivement partisanes. La variété des paradigmes de l’évaluation devrait donc être reconnue dans l’ensemble du système politique et administratif, dans les milieux professionnels concernés et dans les programmes de formation de futurs évaluateurs ou commanditaires d’évaluation.
45 Il convient par ailleurs de remédier à la faiblesse de la contribution de l’évaluation à la reddition des comptes. Bien entendu, il ne s’agit pas de dire que toutes les institutions chargées d’évaluation doivent faire de l’évaluation managériale dans le cadre de la LOLF. Encore moins de s’y limiter. Mais le fait qu’elles y renoncent toutes, manifeste une sorte d’abandon face à leurs responsabilités premières. Ce constat est particulièrement préoccupant concernant l’Assemblée nationale et la Cour des comptes. Pour l’instant, leur engagement en matière d’évaluation ne semble pas accompagné d’un investissement humain et intellectuel à la hauteur de leurs responsabilités constitutionnelles.
46 Enfin, face au mythe franco-français du haut fonctionnaire généraliste et omni-compétent, la question de la compétence doit être posée. Chaque type d’évaluation exige des capacités professionnelles particulières. Or cela ne semble pas à l’ordre du jour dans les corps de contrôle. Ainsi, la Cour des comptes semble considérer comme n’étant pas de sa responsabilité de faire de l’audit de performance, pourtant la forme la plus proche de ses compétences, mais sans s’interroger sur sa capacité à conduire des évaluations globales du type « par les preuves » qui exigent, elles, des compétences scientifiques. De la même façon des inspections se jettent « à corps perdu », si l’on ose dire, dans l’évaluation, sans s’interroger sur leur compétence en méthodologie de la recherche dans les sciences sociales. Or celle-ci est rare parmi les membres des corps de contrôle, particulièrement ceux qui recrutent par la voie de l’ENA. Le développement d’une évaluation de qualité est sans doute un des domaines qui justifie le plus le recrutement de docteurs dans les grands corps de l’État.
Bibliographie
Références bibliographiques
- Alkin, Marvin C. (Ed.) (2004), Evaluations Roots: Tracing Theorists’ Views and Influences, Thousands Oaks, CA, Sage
- Barbier, Jean-Claude ; Matyjasik, Nicolas (2010), « Évaluation des politiques publiques et quantification en France : des relations ambiguës et contradictoires entre disciplines », Revue française de socio-économie, n° 5, p. 123-140.
- Baslé, Maurice (2008), Économie, conseil et gestion publique – Suivi et évaluation des politiques publiques et des programmes, Paris, Économica.
- Brunetière, Jean-René (2006), « Les indicateurs de la LOLF, une occasion de débat démocratique ? », Revue française d’administration publique, n° 117, p. 95-112.
- Brunetière, Jean-René (2013), Indicateurs, évaluation et typologie des objectifs : contrôle de gestion et performance sociale, Revue française d’administration publique, n° 148, p. 967-976.
- Clarke, Alan (2006), « Evidence-based Evaluation in Different Professional Domains : Similarities, Differences and Challenges », Chap. 25, in Shaw, I. F., J. C. Greene & M. M. Mark (Eds.), The Sage Handbook of Evaluation, London, Sage.
- Conseil scientifique de l’évaluation (1996), Petit guide de l’évaluation, La documentation française.
- Deleau, Michel ; Nioche, Jean-Pierre ; Poinsard, Penz Ph. (1986), Évaluer les politiques publiques – Méthodes, Déontologie, Organisation, La documentation française.
- Duflo, Esther (2009), Expérience, science et lutte contre la pauvreté, Paris, Fayard.
- Inspection générale de l’administration (IGA), Inspection générale des affaires sociales (IGAS), Inspection générale des finances (IGF) (2012, a), Bilan de la RGPP et conditions de la réussite d’une nouvelle politique de réforme de l’État, La documentation française.
- Inspection générale de l’administration (IGA), Inspection générale des affaires sociales (IGAS), Inspection générale des finances (IGF) (2012, b), Cadrage méthodologique de l’évaluation des politiques publiques partenariales, La documentation française.
- Kessler, Marie-Chrisitine ; Lascoumes, Pierre ; Setbon, Michel ; Thoenig, Jean-Claude (dir.) (1998), L’évaluation des politiques publiques, Paris, L’Harmattan, actes d’un colloque organisé à l’Ens-Cachan.
- Lacouette-Fougère, Clément et Lascoumes, Pierre (2013), « L’évaluation : un marronnier de l’action gouvernementale ? », Revue française d’administration publique, n° 148, p. 859-875.
- Lascoumes, Pierre et Setbon, Michel (1996), « L’évaluation pluraliste des politiques publiques : enjeux, pratiques, produits », Note pour le Commissariat général du plan, 17p.
- L’Horty, Yannick et Petit, Pascale (2011), « L’évaluation aléatoire : un succès qui ne doit rien au hasard », La vie des idées.
- Migaud, Didier (2013), « Les cinq défis de l’évaluation », Revue française d’administration publique, n° 148, p. 849-858
- Monnier, Eric (1987), Évaluations de l’action des pouvoirs publics-Du projet au bilan, Paris, Économica, 2e éd., 1992.
- Nioche, Jean-Pierre (1982), « De l’évaluation à l’analyse des politiques publiques », Revue française de science politique, vol. n° 32, février, n° 1, p. 32-61
- Nioche, Jean-Pierre (2010), « Theoretical Logic in Evaluation and its Sources », International Summer University on Research in Evaluation, IEP de Lille, 30 août-3 septembre.
- Patton, Michael Quinn (1975), Alternative Evaluation Research Paradigm, New-York, NY, Rockefeller Bros Fund.
- SFE, Société française de l’évaluation (2006), Charte de l’évaluation, http://www.sfe-asso.fr
- SFE, Société française de l’évaluation (2014), Projet associatif 2014-2017, http://www.sfe-asso.fr
- SGMAP (2012), Décret du 30 octobre 2012 portant création du Secrétariat général pour la modernisation de l’action publique.
- SGMAP (2014), Deux ans d’évaluation de politiques publiques –Bilan et perspectives, Paris, 6 novembre.
- SGMAP (2016), Les évaluations de politiques publiques dans le cadre de la modernisation de l’action publique, brochure du SGMAP, mai 2016
- Spenlehauer, Vincent (1998), L’évaluation des politiques publiques, avatar de la planification, Thèse de doctorat de science politique, UPMF, Grenoble 2, (http://hal.archives-ouvertes.fr.).
- Schwartz, Daniel (1984), « Les techniques d’évaluation en épidémiologie », chap. 6 in Nioche, J.-P. et Poinsard, R. (dir.), L’évaluation des politiques publiques, Paris, Économica.
- Trosa, Sylvie (2004), L’évaluation des politiques publiques, Paris, Institut de l’entreprise.
- Viveret, Patrick (1989), L’évaluation des politiques et des actions publiques, La documentation française.
Mots-clés éditeurs : évaluation collaborative/pluraliste, évaluation stratégique, Pilotage de politiques publiques, évaluation managériale.
Mise en ligne 26/05/2017
https://doi.org/10.3917/rfap.160.1227Notes
-
[1]
Les débats du colloque « Rendre des comptes-rendre compte », ENA, Strasbourg, 3-4 avril 2016, ont montré la difficulté à se mettre d’accord sur le sens à donner à des expressions telles que « rendre des comptes », « reddition de comptes », « redevabilité », « rendre compte », accountability, etc.
-
[2]
La « reddition des comptes », originaire du droit notarial, est l’extension au secteur public de l’« acte par lequel on présente l’état de la recette et de la dépense relatif aux biens d’autrui que l’on a administré », Le Robert, Dictionnaire historique de la langue française.
-
[3]
À lui tout seul, M. Q. Patton l’a promu sous six labels : alternative evaluation, utilization-focussed evaluation, qualitative evaluation, creative evaluation, practical evaluation, developpemental evaluation. Mais il existe de nombreuses autres appellations : 4th generation evaluation, stakeholder evaluation, democratic evaluation, pluralistic evaluation, participative evaluation, empowerment evaluation. En France, c’est le label « évaluation pluraliste » qui est le plus employé, notamment par la Société française de l’évaluation (SFE). En 2012, le gouvernement socialiste la rebaptise « évaluation partenariale ». L’appellation « évaluation collaborative » a été adoptée par l’American Evaluation Association comme vocable neutre, évitant les revendications de vertus auto-proclamées de certains de ces labels.
-
[4]
« Associer les partie prenantes » a ce sens précis de donner un rôle décisionnel aux parties prenantes qu’il convient de distinguer de leur consultation, qui est une démarche fréquente dans les évaluations par les preuves.
-
[5]
Circulaire d’organisation de l’évaluation des contrats de plan État-région de 1993
-
[6]
Nioche, J-P. (2010), Les quatre niveaux d’implication des parties prenantes recommandés dans les standards nationaux et internationaux d’évaluation, Note pour les débats au sein de la SFE, disponible auprès de l’auteur.
-
[7]
Loi constitutionnelle n° 2003-276 du 28 mars 2003 relative à l’organisation décentralisée de la République et loi organique n° 2003-704 du 1er août 2003 relative à l’expérimentation par les collectivités territoriales.
-
[8]
Ainsi, les 60 premières évaluations réalisées dans le cadre du SGMAP ont été réalisées par 240 membres des inspections générales et 10 « personnalités extérieures » non identifiées (SGMAP, 2014)
-
[9]
SGMAP, 2014, ibid.