Notes
-
[1]
Notre traduction.
- [2]
-
[3]
Définition du Larousse.
-
[4]
Le Larousse définit une méthode comme une « marche rationnelle de l’esprit pour arriver à la connaissance ou à la démonstration d’une vérité ».
-
[5]
Charte de l’évaluation des politiques publiques (SFE, 2006) : http://www.sfe-asso.fr/evaluation/charte-evaluation [41].
Introduction
1Depuis une dizaine d’années, l’évaluation d’impact sur la santé (EIS) a été adoptée en France par les pouvoirs publics des niveaux régional et local. En effet, les agences régionales de santé en assurent la promotion auprès de leurs partenaires, tout particulièrement les municipalités, avec qui elles partagent non seulement des préoccupations communes en matière de santé et de réduction des inégalités, mais aussi des instruments qui facilitent leur collaboration [1, 2]. Presque toutes les régions se sont investies dans cette démarche qui trouve un terrain d’application privilégié dans l’examen des projets d’aménagement urbain. Toutefois, certaines EIS ont été conduites sur des politiques, programmes, réglementations afférentes à d’autres secteurs (environnement, habitat, social, transport). Actuellement, plusieurs dizaines d’EIS ont été engagées et presque la moitié a été achevée. Cette démarche nouvelle en France vient s’ajouter à d’autres travaux, qu’ils relèvent du champ de la santé, d’autres formes d’évaluation ou études d’impact, voire encore aux démarches de concertation organisées dans le domaine des politiques urbaines.
2La dénomination d’EIS traduit sa double appartenance, d’une part, à la famille des évaluations en santé (évaluation de politiques et programmes de santé, évaluation des risques sanitaires, évaluation de besoins) et, d’autre part, à celle des évaluations ou études d’impact (évaluation d’impact environnemental, évaluation d’impact social, évaluation d’impact intégrée…) [3, 4]. En effet, l’EIS porte un regard sur la santé en examinant les conséquences potentielles d’interventions dans d’autres domaines. Pour cette raison, elle fait partie de la panoplie des institutions de santé qui s’efforcent de rendre les décideurs conscients de leur contribution aux enjeux de santé et ainsi favoriser l’intégration de cette dimension dans les autres politiques. Par ailleurs, l’EIS s’intéresse aux impacts [5], c’est-à-dire aux conséquences possibles et non recherchées d’interventions avant même leur mise en œuvre, selon une approche prédictive pour certains auteurs [6, 7] ou a minima prospective [8]. Le passage de l’anglais (Health impact assessment) au français et l’utilisation de l’acronyme occasionnent des traductions diverses (évaluation d’impact sanitaire ou évaluation en santé) et trompeuses quant à la nature de cette méthode, car elles induisent une confusion dans le premier cas avec les évaluations environnementales [9], dans le second, avec l’évaluation de l’impact des politiques de santé.
3Outre la définition princeps et popularisée, qui précise que l’EIS est « une combinaison de procédures, méthodes et outils qui permettent de juger des effets possibles d’une politique, d’un programme ou projet sur la santé de la population et la distribution de ces effets au sein de la population » [10], d’autres définitions ont émergé au fil du temps et de l’évolution de la pratique, certaines insistant sur la méthode, d’autres sur le processus de dialogue [11]. La définition donnée par l’Association internationale pour l’évaluation d’impacts (International Association for Impact Assessment – IAIA) précise que des mesures appropriées doivent être proposées pour gérer ces effets [12]. Si l’EIS est fondée sur un ensemble de principes et valeurs qui peuvent être partagés avec d’autres méthodes, c’est la conjonction de ces principes, à la fois éthiques et méthodologiques, qui en font une méthode spécifique. Par exemple, le principe de démocratie – valeur cardinale de l’EIS – préconise la participation des citoyens à l’EIS, c’est-à-dire leur intégration dans le processus de production de l’évaluation [13], ce qui la rapproche mais aussi la confond avec les démarches de concertation ou de diagnostic communautaire [14]. Enfin, le développement concomitant des démarches d’urbanisme favorable à la santé et d’EIS ainsi que leur terrain commun conduisent parfois à un choix indifférencié entre les deux, positionnant l’EIS comme démarche d’accompagnement plutôt que comme réelle évaluation.
4La proximité ou les recoupements entre ces différentes démarches sont certes source de confusion mais peuvent stimuler la réflexion sur leurs bénéfices respectifs, les complémentarités à organiser et les compétences à exploiter. Cet article a pour objectif d’identifier ce qui distingue ou rapproche l’EIS de l’évaluation des politiques publiques (EPP) et les compétences mobilisées pour ces démarches respectives. Les compétences acquises pour l’EPP sont-elles utiles, transférables, adaptables ou au contraire représentent-elles un frein pour la pratique de l’EIS ?
Méthode
5Ce travail s’appuie sur une double démarche, à savoir théorique, aux fins de définir les deux objets d’étude (EIS et EPP) et réflexive, en questionnant nos pratiques dans les deux domaines. Ainsi, bien qu’éclairée par les expériences et travaux de recherche internationaux, la réflexion conduite s’applique particulièrement au contexte français.
6Dans un premier temps, nous avons, sur la base de la littérature, examiné les fondements théoriques, l’évolution historique et les attributs méthodologiques de l’EIS et de l’EPP afin de caractériser les deux démarches. Les productions académiques et pédagogiques, foisonnantes dans les deux domaines abordent ces objets sous de multiples angles, dans des secteurs divers et selon plusieurs perspectives, historiques, théoriques, éthiques et méthodologiques à partir desquelles nous avons retenu des catégories d’analyse commune [6, 15-20] : concepts (origine, définition, finalités, principes), méthode (approches théoriques, outils), processus (ancrage institutionnel, acteurs impliqués, gouvernance), pratiques (posture, compétences, sociétés professionnelles).
7Dans un deuxième temps, nous avons construit un cadre d’analyse avec les caractéristiques clés pertinentes pour la description (tableau I). Ensuite, les deux démarches ont été comparées sur la base de ces items afin de repérer leurs différences et leurs similitudes.
Comparaison des démarches EIS et EPP
Comparaison des démarches EIS et EPP
8Enfin, nous nous sommes intéressées aux compétences requises pour chaque exercice. Les compétences sont ici définies comme un « ensemble de connaissances, de savoir-faire et d’attitudes connexes qui permettent à un individu d’exercer efficacement les activités d’une profession ou d’une fonction donnée selon les normes attendues dans l’emploi [1] » [21]. Considérant les cinq registres (professionnel, technique, situationnel, management, relationnel) dont relèvent les compétences clés en évaluation, nous avons examiné les compétences en évaluation de programme afin de déterminer dans quelle mesure elles étaient adaptées à l’EIS.
Résultats
Des origines différentes et décalées
L’évaluation des politiques publiques, une approche ancienne et une application « à la française »
9L’évaluation s’inscrit dans une perspective historique évoluant au gré des différents courants théoriques qui l’ont traversée et des modèles qui ont sous-tendu sa pratique [22, 23]. Depuis son origine, plusieurs générations d’évaluation se sont succédé faisant évoluer les approches théoriques, les méthodes et le rôle de l’évaluateur. Pour Alkin [24], l’évaluation, doublement enracinée dans la recherche en sciences sociales et dans la reddition de comptes s’est développée dans trois directions (méthode, valeur, utilisation). Ces divergences traduisent ainsi des positions théoriques qui rendent compte du clivage entre des deux traditions philosophiques radicalement différentes [25] ; pour les uns (positivistes), la connaissance est le produit d’un travail d’observation et d’analyse d’une réalité objective tandis que pour les autres (constructivistes), la réalité est le fruit d’une construction par l’homme. Le champ de l’évaluation est traversé de controverses entre les tenants des approches expertes versus les défenseurs d’approches plus participatives, les partisans des méthodes qualitatives versus ceux des méthodes quantitatives, incitant à choisir des formes d’évaluation différentes, voire radicalement opposées. Le débat sur la nature des méthodes, l’importance à accorder au contexte, la place des parties prenantes et le rôle de l’évaluateur reste vivace.
10L’histoire de l’évaluation des politiques publiques en France n’y échappe pas. Bien qu’ayant tenté des percées dès les années 1960, elle a pris son essor à la fin des années 1980 avec la parution d’un rapport commandé par le Gouvernement et qui va inspirer le décret qui l’institutionnalise [26]. Définie comme « un jugement sur la valeur » de politiques publiques, elle doit être le fruit de la confrontation d’une diversité de points de vue et génératrice d’un débat avec la société en vertu d’une triple exigence : méthodologique, démocratique et d’indépendance. Progressivement, l’évaluation s’est déployée au niveau national puis régional, stimulée par le double processus de décentralisation et d’intégration européenne [27]. Ce développement a été accompagné de guides et de standards, structurant progressivement les pratiques. À l’instar des autres pays, une société professionnelle a vu le jour en France en 1999, la Société française de l’évaluation [2] (SFE). Les acteurs de l’évaluation des politiques publiques relèvent de plusieurs origines, corps de contrôle et départements ministériels, collectivités territoriales, organismes privés et – plus rarement – organismes universitaires [28].
L’EIS, une émergence récente, à la confluence entre environnement et promotion de la santé
11L’histoire de l’EIS est plus récente. Si le consensus de Göteborg signe l’acte de naissance de l’EIS [10], les dix années précédentes ont préparé l’événement fondateur. Dès les années 1970, l’intérêt porté aux conséquences des politiques et projets sur l’environnement introduisait les évaluations environnementales. Progressivement, les préoccupations de santé ont été associées aux enjeux environnementaux, économiques et sociaux. Dans le même temps, la parution de la charte d’Ottawa [29] mettait en avant les conditions et facteurs qui influencent la santé, rehaussant le rôle de l’environnement, d’une part, et citait l’élaboration de politiques publiques saines parmi les cinq stratégies de promotion de la santé, d’autre part. Les conférences en faveur de la promotion de la santé organisées sous l’égide de l’OMS ont renouvelé des appels aux gouvernements en faveur de la création de politiques publiques se préoccupant de santé et d’équité et visant la création de milieux permettant aux gens de mener une vie saine. Les deux courants issus de la santé environnementale et de la promotion de la santé ont convergé aboutissant à la fameuse rencontre à Göteborg en 1999 qui a donné une définition et un cadre à la pratique de l’EIS [10]. L’OMS a permis l’émergence de la démarche et l’a inscrite au début des années 2000 dans le programme du Réseau européen des Villes-Santé [30]. L’EIS s’est développée à travers le monde avec une grande diversité dans les pratiques [31, 32]. Elle est aujourd’hui présente dans tous les continents, avec des degrés d’institutionnalisation variables, parfois autonome, parfois intégrée à d’autres évaluations d’impact [20]. En dépit de l’existence d’une communauté structurée adhérant aux principes de Göteborg, elle n’est pas exempte non plus de controverses, qu’il s’agisse d’une institutionnalisation plus affirmée, de son intégration aux autres évaluations d’impact, de la légitimité des méthodes utilisées pour l’estimation des impacts ou des postures épistémologiques.
12L’EIS a acquis droit de cité en France depuis bientôt dix ans et ne cesse de se développer au niveau local [33]. À l’image du monde international, les pratiques sont diversifiées et on relève une grande hétérogénéité parmi les travaux exécutés, certains n’étant pas toujours de nature évaluative. Cependant, les praticiens en EIS, encore peu nombreux, partagent expérience, outils et questionnements à l’occasion de colloques, ateliers de travail ou échanges plus informels. Une plateforme est à leur disposition pour diffuser leurs travaux ou lancer un débat.
Les fondamentaux des deux démarches
13Dans cet article, nous utilisons le terme « évaluation des politiques publiques » (EPP) pour désigner l’évaluation portant sur des interventions d’envergure différente (politiques, programmes, projets) et conduites dans différents secteurs (santé, culture, éducation, économie, environnement, etc.). L’EIS s’en démarque en raison de son intérêt pour les effets d’un projet sur la santé, celui-ci étant le plus souvent inscrit hors du champ de la santé.
Des temporalités différenciées
14Les deux démarches cherchent à révéler et à expliciter des effets [5] produits par l’objet évalué. Si l’EIS relève d’un exercice d’anticipation, donc toujours ex ante, l’EPP quant à elle s’inscrit dans plusieurs temporalités (ex ante, in itinere, ex post). Cependant, les deux dernières formes sont largement majoritaires.
La production d’un jugement reposant sur une argumentation
15Si les définitions de l’évaluation sont nombreuses, les auteurs s’accordent sur ce qui fait l’essence même de l’évaluation : une opération qui consiste à construire un jugement [34]. Bien que l’EIS ait été définie comme une « combinaison de méthodes et d’outils » [10], tant les principes qui accompagnent cette définition que les usages qui en sont faits démontrent qu’elle ne se résume pas à une simple dimension technique. EPP et EIS se concluent par un avis synthétisé, dans un cas (EPP) sous la forme d’une (ou de) réponse(s) à des questions explicitement formulées, dans l’autre (EIS) sur l’éventualité de survenue de risques ou bénéfices sur la santé d’une intervention. Dans les deux cas, le jugement est l’aboutissement d’un processus d’argumentation [35], reposant sur l’analyse croisée de données.
16Enfin, les deux activités sont définies comme des démarches, à savoir « une manière de conduire un raisonnement, de progresser vers un but par le cheminement de la pensée [3] » ou des méthodes [4]. Elles sont toutes deux structurées en plusieurs étapes dont plusieurs se recoupent mais elles se distinguent par le fait que l’EIS est plus complète, car elle débute avec examen de l’opportunité et de la faisabilité de la démarche, intègre le suivi des recommandations et s’achève avec l’évaluation.
Des postulats différents sur le sens des politiques
17Tant l’EIS que l’EPP sont fondés sur des principes définis par les sociétés professionnelles qui structurent l’exercice de la pratique [36-40]. En France, la SFE a élaboré une charte [5] en sept principes (pluralité, distanciation, compétence, respect des personnes, transparence, opportunité, responsabilité) qui signent l’engagement réciproque des commanditaires et les évaluateurs pour une évaluation de qualité. Pour autant, l’EPP ne porte pas de jugement sur le sens des politiques publiques et ne présage donc pas d’un objectif ou d’un effet « bon » ou « mauvais » en soi. À l’opposé, le but de l’EIS est de juger les politiques au prisme de la santé ; certaines étant jugées favorables, d’autres, dommageables.
Des valeurs éthiques mais des niveaux d’engagement différents
18L’EPP se doit de justifier de l’utilisation de l’argent public et de la capacité à atteindre des objectifs. Pour autant, elle tient au respect d’un certain nombre de principes. Le principe de pluralisme prévoit qu’il convient de « prendre en compte […] les différents intérêts en présence et recueillir la diversité des points de vue pertinents, qu’ils émanent d’acteurs, d’experts ou de toute autre personne concernée ». La formulation est toutefois restée prudente dans la mesure où les bénéficiaires ne sont pas explicitement cités et où cela est envisagé « chaque fois que possible » et « de façon raisonnée ». L’EIS promeut l’équité, la démocratie, le développement durable, l’utilisation éthique des connaissances (principe partagé avec l’EPP). Elle affiche une dimension plus militante et plus d’ambition dans le respect des valeurs. Par exemple, le principe de transparence prévoit de garantir à tous les acteurs, l’accès égal à l’information tout au long de la démarche quand l’EPP se borne à une présentation des résultats de l’évaluation « accompagnée d’un exposé clair de son objet, de ses finalités, de ses destinataires, des questions posées, des méthodes employées et de leurs limites, ainsi que des arguments et critères qui conduisent à ces résultats [41].
L’aide à la décision : une finalité commune
19Quel que soit le but qu’elle sert [15], l’EPP cherche à apporter les éléments de connaissance nécessaires pour une décision éclairée sur la poursuite ou non d’une politique ou sur son ajustement. Toutefois, c’est au décideur d’assumer la responsabilité de transformer les recommandations en plan d’action et d’en assurer le suivi.
20Il en est de même de l’EIS, même si cette dernière assume plus explicitement sa vocation transformatrice en inscrivant dans la démarche, la mise en œuvre d’un plan d’action et le suivi de la prise en compte des recommandations [19].
Des parentés méthodologiques
Un dénominateur commun parmi les angles d’analyse : l’impact
21L’EIS, par définition, s’intéresse à l’impact du projet contrairement à l’EPP, qui regarde son objet sous de multiples angles, en fonction des attentes du commanditaire. Ces angles de vue renvoient aux métacritères d’évaluation (pertinence, cohérence, efficience, efficacité, utilité, durabilité, transférabilité), lesquels interrogent différents segments de la politique [42]. En EPP, l’impact peut être appréhendé selon différents prismes (social, économique, sanitaire, environnemental…), tandis que l’EIS l’analyse toujours du point de vue de la santé et du bien-être.
22Les deux démarches cherchent à révéler et à expliciter des effets produits par l’objet évalué. Toutefois, en EPP, l’analyse des effets repose sur la constatation, la compréhension et l’explicitation des effets réels et recherchés du programme. À l’opposé, l’EIS parce qu’elle a vocation à inscrire la santé dans toutes les politiques, focalise davantage son attention sur l’inattendu (effets non recherchés) que l’EPP.
23Enfin, l’EIS intègre une prise en compte systématique de l’équité dans l’analyse des effets des projets, quels que soient les impacts retenus pour l’analyse.
Des approches évaluatives convergentes et des outils communs
24Les approches ou modèles théoriques en EPP renvoient à des cadres de référence plus ou moins normatifs précisant la façon dont une évaluation est réalisée [43]. S’agissant de l’analyse de l’impact, plusieurs approches coexistent, les unes ayant recours aux méthodes expérimentales qui reposent sur un scénario contre-factuel, les autres, « basées sur la théorie », s’attachant à expliciter la « boîte noire » entre une intervention et ses effets [44]. L’EIS s’intéresse également à la boîte noire, sous forme d’hypothèses sur la cascade d’effets possibles entre les actions d’un projet et la santé, hypothèses dont il s’agit de démontrer le degré de probabilité [6]. Cette communauté d’approche conduit à faire appel au même type d’outils. Le modèle causal (EIS) et le modèle logique (EPP) traduisent la même logique, mais l’EIS explore des liens de causalité possibles (l’extrémité de la chaîne étant la santé) tandis que l’EPP identifie les liens souhaitables (l’extrémité de la chaîne renvoyant à un domaine donné).
25Les deux formes d’évaluation s’appuient sur des données probantes, notion qui est objet de nombreux débats [45], celles-ci étant définies en fonction du but de l’évaluation, du point de vue de leur processus de production ou de leur capacité à faire sens et à être utiles au décideur [46]. Pour l’EIS, les informations recueillies, quelle qu’en soit la source, sont considérées d’égale importance ; ce n’est pas toujours le cas en EPP.
26Les techniques de collecte et d’analyse ne sont spécifiques ni de l’une ni de l’autre des démarches qui les empruntent à différentes disciplines. C’est le recours à tel ou tel type de technique qui fait la différence. Par exemple, les revues de littérature sont quasi systématiquement pratiquées en EIS pour étayer les hypothèses, plus rarement en EPP. Un évaluateur a besoin d’un cadre d’interprétation de ses données (référentiel en EPP, matrice d’impact pour l’EIS). Si leur forme diffère, le principe des deux outils est tout à fait similaire : ils structurent la réflexion ainsi que le protocole méthodologique, indiquant pour chaque hypothèse le type d’information à rechercher et la source d’information.
27Enfin, les deux démarches adoptent le principe de triangulation [47]. La matrice d’impact utilisée en EIS permet de confronter les données et les sources ; la plausibilité de survenue des impacts augmente avec le degré de convergence entre ces données. L’EPP utilise le référentiel ad hoc pour passer des constats au jugement.
Un processus plus ou moins participatif
28Les deux démarches sont pilotées avec le même type d’instances (comités de pilotage et technique). De principe, l’EIS prévoit d’y intégrer des citoyens tandis que l’EPP le recommande pour les bénéficiaires d’une politique publique. Cependant, s’agissant de l’EIS, l’observation des pratiques montre que ce principe est loin d’être respecté et qu’il existe plusieurs niveaux d’implication citoyenne [2, 13, 48].
29Les deux évaluations peuvent être conduites en interne ou en externe. Toutefois, l’équipe EIS a davantage vocation à être intégrée à l’équipe de conception et de mise en œuvre du projet que l’EPP, où une certaine distanciation avec le porteur de la politique est requise.
Des voies de structuration des pratiques différentes
30Développement de formations, mise à disposition de guides, émergence de sociétés professionnelles, adoption de standards, définition de référentiel de compétences, processus d’accréditation des professionnels sont autant d’éléments qui structurent la pratique d’évaluation [49].
31L’histoire de l’EPP est plus ancienne, et les sociétés professionnelles ont largement contribué à construire la professionnalisation de l’évaluation. En France, la SFE, plus soucieuse de rassembler les praticiens et de promouvoir l’évaluation, s’est engagée sur des principes plus éthiques que normatifs. Les programmes de formation demeurent hétérogènes, les approches s’inscrivant dans des champs disciplinaires variés et indépendamment d’un référentiel commun. L’EIS est fortement structurée par le consensus de Göteborg et les productions pédagogiques qui lui ont fait suite. Les formations s’alignent sur ces fondamentaux et l’apprentissage par l’action est une stratégie valorisée. En France, les enseignements dispensés ont été d’emblée unifiés.
32Les praticiens de l’EIS s’efforcent de faire preuve d’inventivité pour adapter leurs pratiques et développer des méthodes dans un cadre où la flexibilité de la démarche est admise tandis que l’EPP cherche à définir des valeurs et principes communs à des pratiques hétérogènes.
Discussion
Des compétences en EPP exploitables pour la réalisation d’EIS
33La réalisation de l’EPP nécessite des compétences propres à chaque étape : identifier ce que l’on cherche à confirmer ou infirmer (cadrage) ; croiser des informations de sources différentes, comprendre les divergences et les complémentarités, construire un jugement reposant sur une argumentation robuste, rigoureuse et convaincante (analyse) ; proposer des recommandations adéquates sur les constats établis. L’évaluateur, rodé au maniement des méthodes d’animation et outils de priorisation, facilite l’expression de la demande initiale, mène un travail de négociation pour trouver le bon équilibre entre le besoin exprimé par le décideur et les conditions pratiques de l’évaluation. En fin de processus, il prend position : il « tranche » sur la valeur du programme. Il doit faire preuve d’une écoute attentive, de réactivité en ajustant la méthode tout en restant fidèle aux exigences méthodologiques et de pédagogie pour accompagner l’appropriation des conclusions et des recommandations. La maîtrise du processus évaluatif acquis en EPP est transférable à la réalisation d’une EIS, celle-ci étant confrontée aux mêmes défis.
34La comparaison a montré des analogies de raisonnement et le recours au même type d’outils modèle logique/modèle causal, référentiel de jugement/matrice d’impact). L’évaluateur en EPP expérimenté à la manipulation d’un instrument dans son domaine n’a aucune difficulté à l’adapter à un autre.
35Enfin, l’EIS comme l’EPP (dans le cadre de l’approche évaluative basée sur la théorie) sont des démarches inductives : elles prennent les faits comme point de départ et cherchent à identifier les conséquences dans un contexte donné. Par nature, elles ouvrent donc la possibilité de contredire la conclusion attendue (l’effet recherché ne se produit pas) ou d’élargir les conclusions (des effets non recherchés se produisent). La maîtrise de ce raisonnement inductif (recueil des faits, croisement, argumentation, conclusion), au cœur de l’évaluation des politiques publiques, ainsi que des techniques associées permettent au praticien de le mener à bien dans le cadre de l’EIS. Toutefois les spécificités de l’EIS suggèrent quelques adaptations.
Des compétences spécifiques pour l’EIS
36Premièrement, la principale fonction de l’EIS étant d’introduire la santé dans les autres politiques, elle nécessite une double expertise, en promotion de la santé et dans le secteur du projet concerné. La compréhension des déterminants de santé est indispensable pour faire des liens entre le projet et la santé, porter une vision holistique sur les effets du projet mais aussi repérer les risques d’aggravation des inégalités de santé. La compréhension des processus à l’œuvre dans le champ des déterminants environnementaux est également utile. En complément et en fonction de l’objet de l’EIS, il est utile de disposer d’une bonne connaissance du secteur concerné. Pour les EIS appliquées à l’urbanisme, une connaissance des contraintes et des enjeux de la planification permet l’identification d’une variété d’impacts potentiels, facilite le dialogue avec les spécialistes et permet de proposer des recommandations pertinentes et réalistes dans un calendrier adapté. La connaissance du secteur concerné est certes souhaitable en EPP mais elle suppose un moindre degré de technicité, étant plus en aval de la construction du projet.
37Deuxièmement, l’EIS s’inscrit dans une approche globale et systémique de l’ensemble des effets sur la santé intégrant dans un même cadre, les différents enjeux, les synergies et les antagonismes entre les différents éléments du projet ou de la politique. Pour y parvenir, elle est amenée à prendre en compte d’autres études (modélisation sur la qualité de l’air par exemple) voire en suggérer au regard d’effets potentiels soulevés. L’EPP est peu confrontée à cette particularité, son périmètre étant généralement plus circonscrit au démarrage de l’évaluation. Intervenant majoritairement après la mise en œuvre d’un programme, l’articulation avec d’autres études est moins cruciale.
38Troisièmement, l’EIS s’inscrit dans une approche anticipative, ce qui implique une vision prospective des effets et imaginative concernant les recommandations. En ce sens, les compétences attendues tendent à se rapprocher de celles qui nourrissent les pratiques de conception des politiques publiques ou de la prospective. Elles permettent d’intégrer le fait que la perception d’un équipement va influencer son usage (recours ou non, conflits d’usage) et donc produire des effets différemment répartis sur les catégories de personnes. Cette compréhension des usages réels et potentiels s’avère capitale dans l’EIS pour estimer les impacts et construire les recommandations.
39Quatrièmement, sur le plan technique, l’EIS requiert des capacités particulières dans deux domaines : la réalisation de revues de littérature et l’intégration, autant que possible, des citoyens au processus comme partenaire à part entière dans l’analyse. Cette exigence nécessite de puiser dans l’éventail des méthodes et techniques facilitant la participation, voire d’innover, en vue de réussir cette analyse collective et permettre la projection mentale des personnes dans un futur dépassant le court terme. L’EIS est une pratique relativement nouvelle, nécessitant encore un temps d’acculturation et une pédagogie de la démarche, ce qui requiert des compétences pour animer le processus et partager les résultats de manière facilement appropriable par l’ensemble des acteurs.
40Bien que la méthodologie de l’EIS soit relativement cadrée, elle implique une grande créativité de la part des évaluateurs pour adapter les outils au contexte. On peut par exemple citer le besoin de définir les bons outils pour faciliter la structuration du cadrage ou des recommandations (grilles de priorisation, matrices d’analyse). Parce que l’EIS est plus récente que l’EPP et parce qu’elle implique un degré de transparence plus important dans le travail de l’évaluateur, elle nécessite d’inventer au fil de l’eau les outils permettant de formaliser les travaux. En ce sens, elle peut nourrir les pratiques de l’EPP en rendant le processus d’élaboration des conclusions et de formalisation des recommandations plus transparent pour les décideurs.
41Cinquièmement, l’EIS occupe une place centrale dans le projet analysé avec une implication forte de l’évaluateur, contrairement à l’EPP où l’évaluateur n’est pas partie prenante de la conception.
Conclusion
42Les deux démarches décrites, EPP et EIS, présentent plus de similitudes que de différences en raison de leur nature évaluative. Le travail d’évaluation requiert plusieurs habiletés, notamment méthodologiques et relationnelles. Toutefois, la compétence de l’évaluateur réside dans sa capacité à s’adapter à chaque situation nouvelle et singulière, repérer les enjeux propres au contexte et appliquer la méthode à son terrain en combinant connaissances théoriques et acquis de l’expérience [50]. Les apprentissages issus de la pratique en EPP sont transférables à l’EIS. Inversement, l’évaluateur à la croisée des deux exercices peut revisiter et enrichir sa pratique en EPP.
43Aucun conflit d’intérêts déclaré
Bibliographie
Références
- 1Jabot F. Évaluation d’impact sur la santé : premier bilan pour la France. Santé en action. 2019;(450):39.
- 2Jabot F, Roué Le Gall A. Quelle plus-value de la démarche d’évaluation d’impact sur la santé pour les politiques urbaines ? Lien Soc Polit. 2017;(78):112-31.
- 3Fehr R, Alexanderson K, Favaretti C, de Jong J, La Torre G, Lim TA, et al. Health assessments for health governance: Concepts and methodologies. Eur J Public Health. 2017;27(4):609-16.
- 4Vanclay F. Changes in the impact assessment family 2003-2014 : implications for considering achievements, gaps and future directions. J Environ Assess Policy Manag. 2015;17(01):1550003.
- 5Belcher B, Palenberg M. Outcomes and impacts of development interventions: Toward conceptual clarity. Am J Eval. 2018;39(4): 478-95.
- 6Kemm JR. Health impact assessment past achievement, current understanding, and future progress [Internet]. Oxford: Oxford University Press ; 2013 [Visité le 01/09/2015]. En ligne http://search.ebscohost.com/login.aspx?direct=true&scope=site&db=nlebk&db=nlabk&AN=678303.
- 7Petticrew M, Cummins S, Sparks L, Findlay A. Validating health impact assessment: Prediction is difficult (especially about the future). Environ Impact Assess Rev. 2007;27(1):101-7.
- 8Birley M. Health impact assessment: Principles and practice. London: Routledge; 2013. 401 p.
- 9Simos J. EIS vs EIS. Environ Risques Santé. 2015;14(4):350-3.
- 10World Health Organization (WHO). Health impact assessment: main concepts and suggested approach, Gothenburg Consensus Paper. Bruxelles: WHO; 1999.
- 11Jabot F, Roué Le Gall A. Évaluation d’impact sur la santé, un atout pour la promotion de la santé. In : La promotion de la santé : Comprendre pour agir dans le monde francophone. Rennes : Presses de l’EHESP ; 2017. p. 457-95.
- 12Quigley R, den Broeder L, Furu P, Bond A, Cave B, Bos R. Health impact assessment international best practice principles: Special publication series no 5 [Internet]. 2006 [Visité le 18/01/2019]. En ligne : https://ueaeprints.uea.ac.uk/20178/.
- 13Mahoney ME, Potter JLL, Marsh RS. Community participation in HIA: Discords in teleology and terminology. Crit Public Health. 2007;17(3):229-41.
- 14Gulis G, Paget DZ. What is and what is not Health Impact Assessment. Eur J Public Health. 2014;24(6):875.
- 15Guillemette F, Hurteau M, Houle S. L’évaluation de programme axée sur le jugement crédible. Québec : PUQ ; 2012. 220 p.
- 16Weiss CH. Evaluation: Methods for Studying programs and policies, 2nd ed. Upper Saddle River, NJ: Prentice Hall; 1997. 372 p.
- 17Patton MQ. Utilization-focused evaluation: The New Century Text. Thousand Oaks, CA: SAGE Publications; 1997. 452 p.
- 18Champagne F, Contandriopoulos A-P, Brousselle A, Hartz Z. L’évaluation : Concepts et méthodes. Montréal : Presses de l’université de Montréal ; 2011. 332 p.
- 19Green L, Parry-Williams L, Edmonds N. Quality assurance review framework for health impact assessment (HIA). Wales Health Impact Assessment Support Unit (WHIASU), Public Health Wales (PHW) ; 2017. p. 37.
- 20Lee JH, Röbbel N, Dora C. Analyse transnationale sur l’institutionnalisation de l’évaluation d’impact sur la santé [Internet]. Genève, Suisse : Organisation mondiale de la Santé ; 2014. [Visité le 15/01/2021]. En ligne : http://www.who.int/iris/handle/10665/128046.
- 21King JA, Stevahn L. Competencies for program evaluators in light of adaptive action: What? So What? Now What? New Dir Eval. 2015;(145):21-37.
- 22Guba EG, Lincolm YS. Fourth generation evaluation. Thousand Oaks, CA: SAGE Publications; 1989. 296 p. (Thousand Oaks).
- 23Vedung E. Four waves of evaluation diffusion. Evaluation. 2010;16(3):263-77.
- 24Alkin MC. Evaluation roots: Tracing theorists’ views and influences. Thousand Oaks, CA: SAGE Publications; 2004. 424 p.
- 25Dubois N, Marceau R. Un état des lieux théoriques de l’évaluation : une discipline à la remorque d’une révolution scientifique qui n’en finit pas. Can J Program Eval. 2005;20(1):1.
- 26Viveret P. L’évaluation des politiques et des actions publiques. Propositions en vue de l’évaluation du revenu minimum d’insertion : rapports au Premier ministre. Paris : La Documentation française ; 1989. 193 p.
- 27Le Bouler S. Panorama de la situation en France : Les institutions, les acteurs, les promoteurs. [Internet]. Inf Soc. 2003;(110) [Visité le 19/07/2014]. En ligne : http://cat.inist.fr/?aModele=afficheN&cpsidt=15136833.
- 28Barbier J-C, Matyjasik N. Évaluation des politiques publiques et quantification en France : des relations ambiguës et contradictoires entre disciplines. Rev Fr Socio-Économie. 2010;5(1):123-40.
- 29WHO. Charte d’Ottawa [Internet]. 1986. [Visité le 15/01/2021]. En ligne : http://www.euro.who.int/__data/assets/pdf_file/0003/129675/Ottawa_Charter_F.pdf.
- 30Simos J, Spanswick L, Palmer N, Christie D. The role of health impact assessment in Phase V of the Healthy Cities European Network. Health Promot Int. 2015;30(Suppl 1):i71-85.
- 31Harris-Roxas B, Harris E. Differing forms, differing purposes: A typology of health impact assessment. Environ Impact Assess Rev. 2011;31(4):396-403.
- 32Winkler MS, Furu P, Viliani F, Cave B, Divall M, Ramesh G, et al. Current global health impact assessment practice. Int J Environ Res Public Health. 2020;17(9):2988.
- 33Jabot F, Tremblay E, Rivadeneyra A, Diallo TA, Lapointe G. A comparative analysis of health impact assessment implementation models in the regions of Montérégie (Québec, Canada) and Nouvelle-Aquitaine (France). Int J Environ Res Public Health. 2020;17(18): 6558.
- 34Mathison S. Encyclopedia of evaluation. Thousand Oaks, CA: SAGE Publications; 2005.
- 35Perret B. L’évaluation des politiques publiques. Paris : La Découverte ; 2008. 128 p.
- 36Bhatia R, Farhang L, Heller J, Lee M, Orenstein M, Richerdson M, et al. Minimum elements and practice standards for health impact assessment, Version 3. Society for Practitioners of HI; 2014.
- 37Widmer T, Landert C, Bachmann N. Standards d’évaluation de la société suisse d’évaluation (Seval). [Internet]. 2000. [Visité le 15/01/2021]. En ligne : https://www.perfeval.pol.ulaval.ca/fr/standards-devaluation-de-la-societe-suisse-devaluation-standards-seval.
- 38Yarbrough D, Shulha L, Hopson R, Caruthers F. The program evaluation standards: A guide for evaluators and evaluation users, 3rd ed. Thousand Oaks, CA: SAGE Publications; 2011. p. 56.
- 39Fakhri A, Maleki M, Gohari M, Harris P. Investigating underlying principles to guide health impact assessment. Int J Health Policy Manag. 2014;3(1):17-22.
- 40Green L, Gray BJ, Edmonds N, Parry-Williams L. Development of a quality assurance review framework for health impact assessments. Impact Assess Proj Apprais. 2018;0(0):1-7.
- 41Société française de l’évaluation (SFE). Charte de l’évaluation des politiques publiques [Internet]. 2006. [Visité le 15/01/2021]. En ligne : http://www.sfe-asso.fr/evaluation/charte-evaluation.
- 42Jabot F, Turgeon J. Une analyse du processus d’évaluation de la politique régionales de santé dans le Nord Pas-de-Calais (France). Can J Program Eval. 2010;23(2):139-64.
- 43Contandriopoulos D, Brousselle A. Evaluation models and evaluation use. Évaluation. 2012;18(1):61-77.
- 44Hawe P. Lessons from complex interventions to improve health. Annu Rev Public Health. 2015;36:307-23.
- 45Donaldson SI, Christie CA, Mark MM. What counts as credible evidence in applied research and evaluation practice? Thousand Oaks, CA: SAGE Publications; 2009. 289 p.
- 46Berriet-Solliec M, Labarthe P, Laurent C. Goals of evaluation and types of evidence. Évaluation. 2014;20(2):195-213.
- 47Campbell R, Goodman-Williams R, Feeney H, Fehler-Cabral G. Assessing triangulation across methodologies, methods, and stakeholder groups: The joys, woes, and politics of interpreting convergent and divergent data. Am J Eval. 2018;109821401880419.
- 48den Broeder L, Uiters E, ten Have W, Wagemakers A, Schuit AJ. Community participation in health impact assessment. A scoping review of the literature. Environ Impact Assess Rev. 2017;66:33-42.
- 49Wilcox Y, King J. A professionnal grounding and history of the development and formal use of evaluator competencies. Can J Program Eval. 2014;28(3):1-28.
- 50Kundin DM. A conceptual framework for how evaluators make everyday practice decisions. Am J Eval. 2010;31(3):347-62.
Mots-clés éditeurs : évaluation d’impact sur la santé, pratique professionnelle, standards, compétences, évaluation, politiques publiques
Date de mise en ligne : 02/07/2021.
https://doi.org/10.3917/spub.211.0047Notes
-
[1]
Notre traduction.
- [2]
-
[3]
Définition du Larousse.
-
[4]
Le Larousse définit une méthode comme une « marche rationnelle de l’esprit pour arriver à la connaissance ou à la démonstration d’une vérité ».
-
[5]
Charte de l’évaluation des politiques publiques (SFE, 2006) : http://www.sfe-asso.fr/evaluation/charte-evaluation [41].