Couverture de SDD_010

Article de revue

Le design de l’action publique : vers une hybridation entre culture design et culture de l’évaluation

Pages 83 à 89

1Le design semble aujourd’hui sur toutes les lèvres. Nous parlons ici du design appliqué à l’action publique au sens de Design for policy (Bason, 2014) ou Design des politiques publiques (Vincent, Thévenet, & Daubrée, 2010) comme l’ont porté le Mindlab au Danemark, Nesta en Grande-Bretagne ou encore la 27e Région en France. En d’autres termes, un design qui s’intéresse à repenser tantôt les services publics, tantôt les politiques publiques, au service de l’innovation publique, et en mobilisant les modes de faire et l’expertise (approches, postures, outils et méthodes) du design pour servir l’intérêt général et le bien commun.

2Ce design appliqué à l’action publique s’est constitué en France en tant que discipline ou métier il y a une dizaine d’années, et s’est bâti par des interventions de terrain souvent exploratoires, expérimentales, de type recherche-action. Mais la montée en puissance est réelle, tant au niveau de l’État que des collectivités des régions aux plus petits villages (Weller & Pallez, 2017).

3Avec l’engouement général viennent cependant les interrogations sur la valeur ajoutée du design : transformation pérenne des administrations publiques, changements de comportements et modes de faire des agents, innovation… Comme le relève Emma Blomkamp à la suite d’une revue de littérature particulièrement approfondie, « les assertions sur les bénéfices du co-design sont nombreuses, mais les preuves de son impact sur la conception et la mise en œuvre des politiques publiques restent peu nombreuses » (Blomkamp, 2018). N’y a-t-il pas dès lors un risque que les acteurs publics passent à un nouvel objet à la mode lorsqu’ils se seront lassés du design ? Ou qu’il s’intègre dans des processus managériaux et perde ainsi progressivement son pouvoir de transformation (Iskander, 2018) ? Ce n’est pas un enjeu trivial, à l’heure où ferment les laboratoires d’innovation publique mondiaux qui ont soutenu le design. Pour l’ex-coordinateur du Centre colombien d’Innovation publique et numérique (fermé en 2018), Garcia-Devis, « [Les décideurs publics] n’ont vraiment pas compris l’approche d’innovation publique et en quoi ça pouvait avoir de l’intérêt pour eux » (Guay, 2019).

4Or, les designers sont souvent sceptiques à l’idée que les processus qu’ils engagent puissent être évalués – comme tout le monde, pourrions-nous dire (Donaldson, Gooler, & Scriven, 2002). Il est vrai que design et évaluation ne relèvent pas, de prime abord, des mêmes modes de pensée. L’évaluateur cherche à construire des liens de causalité, identifier des logiques d’enchaînements et à clarifier les effets et leur construction là où les designers naviguent (sans en être angoissés) au sein d’un processus complexe, organique et où intuition et sérendipité sont deux composants tout à fait familiers et normaux du processus (Findeli, 2016). Les designers se méfient du recours à d’« illusoires données probantes » (Gauthier & Bihanic, 2015) et associent l’évaluation aux processus administratifs et managériaux hérités de la « nouvelle gestion publique » qu’ils cherchent à combattre.

5Nous, évaluateurs, designers, innovateurs publics, impliqués dans des formes engagées (et peut-être atypiques) d’évaluation et de design ; ayant appris à nous connaître à travers des expériences communes de formation, d’évaluations du design et de recours au design dans l’évaluation, mais aussi les débats et expériences portés par la 27e Région et la Société française d’évaluation (Bois-Choussy, 2018 ; La Pointeuse, 2015, SFE, 2016) faisons pourtant le constat ici qu’évaluation et design ont sans doute plus de points communs qu’il ne semble au premier abord, tant dans les héritages, les finalités que dans les concepts et les pratiques – une fois les postures, les différences de vocabulaire et les concurrences mal placées évacuées.

6Nous plaidons ici que pour toutes ces raisons, l’enjeu est certes d’évaluer le design (encore faut-il savoir de quelle évaluation parlons-nous ? Des méthodes existent déjà qui peuvent être adaptées à cette fin), mais peut-être surtout d’aller plus loin dans l’hybridation entre les pratiques : encore faut-il que chacun fasse un pas, et surtout que les designers eux-mêmes y voient leur intérêt et s’y investissent.

7C’est pourquoi nous appelons à une évaluation du design avec et par les designers, dans un objectif d’appropriation des démarches et d’enrichissement mutuel des disciplines.

1 – Quelle évaluation pour le design ?

8L’évaluation des politiques publiques, selon la définition qui en est donnée par la Société française de l’évaluation, « vise à produire des connaissances sur les actions publiques, notamment quant à leurs effets, dans le double but de permettre aux citoyens d’en apprécier la valeur et d’aider les décideurs à en améliorer la pertinence, l’efficacité, l’efficience, la cohérence et les impacts » (SFE, 2006). Dans une évaluation du design, nous retenons 3 principaux objets d’évaluation, entremêlés, mais pour lesquels les enjeux diffèrent, et qui sont discutés ci-dessous.

1.1 – Évaluation des résultats des propositions de design

9Le premier réflexe de l’évaluateur est souvent de considérer son objet par ses résultats, par exemple l’objet, le service, la politique ou la stratégie produits à la fin du processus de design. Dans ce cas de figure, il est a priori possible de faire appel à tout l’éventail des méthodes et approches existantes, adaptées aux caractéristiques du projet existant. Le nouvel accueil d’une mairie, par exemple, peut être évalué sur la facilité des usagers à s’orienter, le confort des agents, le bien-être de tous dans cet espace, etc.

10Cette manière de voir correspond à la vision d’un certain nombre d’acteurs publics pour qui le design est un outil de conception parmi d’autres – sans finalement que la façon de produire soit un enjeu.

1.2 – Évaluation du processus de design

11Pour autant, nous nous interrogeons sur une telle approche. Le design appliqué aux politiques publiques a des ambitions plus larges que celles de livrer un produit fini, qui tient à des spécificités bien établies (Findeli, 2016) :

  • Son inscription dans une vision de la complexité des problèmes, des enjeux, des relations, pour lesquels il n’existe pas réellement de solution optimale, mais des compromis satisfaisant les parties ;
  • Son approche « tâtonnante » (Gauthier & Bihanic, 2015), athéorique, s’émancipant des processus normés, empruntant des chemins détournés pour appréhender la complexité : valorisation de l’incertitude source de créativité, changements d’échelle, rétroactions multiples, etc.
  • Sa capacité à produire des formes tangibles et une variété infinie de formes pour représenter la complexité ;
  • La revendication du design comme un acte politique, « social et critique » (Gauthier, Proulx, & Vial, 2015), mais aussi démocratique, dans une filiation revendiquée avec John Dewey (partagée avec l’évaluation, voir House, 2014), qui se retrouve à la fois dans la conscience du designer de sa contribution à la meilleure « habitabilité » du monde (Findeli, 2016), mais aussi dans le rôle central donné à l’usager, son expertise d’usage qui le met au niveau des autres parties prenantes et des politiques publiques ;
  • L’importance enfin de la personne du designer. Les designers se revendiquent comme une profession au sens sociologique du terme, avec ses savoirs spécialisés et un statut particulier, lié au diplôme, mais également à une vision du monde qui lui est propre et qui prend en compte les trois caractéristiques précédentes. Dit autrement, le design est ce que fait le designer, et ne se limite aucunement aux outils qu’il déploie.

12Dans la mesure où ces caractéristiques expliquent le résultat final, elles sont nécessairement à prendre en compte pour évaluer ce dernier. C’est ce que nous avons fait lors de l’évaluation de la Transformation Écologique et Sociale de la Région (TESR) du Nord-Pas de Calais, qui faisait appel, entre autres, à des démarches de design parmi d’autres formes d’innovation publique (Quadrant Conseil, 2015).

13Celle-ci a montré comment les processus engagés dans la TESR avaient mené à une meilleure compréhension partagée des problèmes justifiant l’intervention publique ; à une meilleure prise en compte par chacun des finalités et des enjeux des autres, hors de la collectivité, mais également en son sein ; à l’organisation de complémentarités parmi les acteurs publics, mais également avec les acteurs associatifs et les entreprises ; et lorsque toutes les conditions étaient réunies (profil du chef de projet, portage, etc.), à des solutions différentes de l’existant, plus pertinentes, et potentiellement plus efficaces et efficientes. Ces constats sont cohérents avec ceux faits par Emma Blomkamp dans sa revue de littérature (2018).

14Il ne s’agissait pas d’attribuer au design ces changements : après tout, celui-ci n’était qu’un élément d’une démarche plus générale d’innovation publique, mais, en utilisant une méthode d’analyse de contribution (Delahais & Lacouette-Fougère, 2019 ; Mayne, 2011), de « renforcer le degré de confiance dans la contribution » de cette intervention (Befani & Mayne, 2014) dans un cadre complexe.

15Cette évaluation a aussi posé la question du niveau des attentes. Là où, dans notre expérience, les politiques publiques sont mal conçues, pâtissent d’une mauvaise compréhension des problèmes sociaux, sont trop segmentées, ne prennent pas suffisamment en compte la mise en œuvre effective (voir par exemple Ridde, 2016), ces enjeux devraient être absents ou considérablement atténués dans les politiques redesignées. À partir de quel niveau sommes-nous satisfaits du compromis sur lequel débouche le design ?

1.3 – Évaluer les transformations de l’action publique amenées par le design

16Enfin, évaluer le design c’est évaluer tout le design. La promesse du design est justement de ne pas se limiter à l’objet du projet, mais d’embrasser l’action publique dans son ensemble. Le designer, « pirate bienveillant » (Jégou, Vincent, Thévenet, & Lochard, 2013), se sert du projet pour donner à toutes les parties prenantes l’occasion d’être créatif, d’ouvrir le champ des possibles, d’insuffler ou de renforcer des valeurs de faire-ensemble qui dépassent le projet. En faisant prendre conscience aux acteurs de l’action publique de leurs possibilités, et en catalysant les nouvelles initiatives générées par ce nouvel état d’esprit, le design peut avoir à moyen terme des conséquences dépassant largement celles du projet.

17Ainsi, nous avons montré que les agents engagés dans les processus de reconception de la TESR avaient retrouvé avec les discussions sur les finalités et les valeurs de l’action publique du sens à leur travail, du désir et un enthousiasme renouvelé. Après plusieurs années, et bien que la Région ait mis fin à la TESR suite à un changement de majorité, ce sens retrouvé et la motivation qui en découle perdurent, de même que des habitudes de travail « sous le radar », entre collègues partageant une même vision de l’intérêt général et une même approche de travail.

18Peut-être que le design mobilisé dans une tâche ponctuelle peut être évalué pour ses produits. Mais dès lors que le designer peut donner pleinement sa mesure et s’autosaisir des enjeux, s’inscrire dans les institutions et les partenariats, alors il est sans doute plus juste de juger du design sur ces changements de long terme que sur les effets du projet.

19Pourtant, il nous semble qu’il s’agit du champ des effets du design le moins évalué à ce jour. Sans pouvoir ici entrer dans le détail des approches possibles, il apparaît que l’évaluation réaliste (Pawson & Tilley, 1997) serait une bonne façon de mieux comprendre ces effets et les contextes dans lesquels ils interviennent. Approche évaluative de la complexité, elle postule que les interventions ne marchent pas d’elles-mêmes. Une approche de design, par exemple, est dans une logique réaliste une opportunité dont les acteurs peuvent se saisir pour changer leurs pratiques. Les raisonnements par lesquels ces acteurs décident ou non de changer leurs pratiques sont modelés par leurs personnalités, leurs interactions, le contexte de l’intervention. Ces processus de changement, appelés mécanismes, et la façon dont ils sont ou non déclenchés selon le contexte, sont au cœur de l’évaluation réaliste ; leur connaissance, informée par les théories sociales peut-être trop peu utilisées par les designers (Findeli, 2004), un atout majeur pour améliorer le design et consolider son projet politique.

2 – La nécessaire hybridation des designers et des évaluateurs

20Une évaluation du design est donc possible. Encore faudrait-il, pour que l’évaluation soit utile, que les designers s’en saisissent.

21D’abord, les designers ne doivent pas subir l’évaluation. Mener soi-même l’évaluation, c’est-à-dire décider de son contenu, piloter les travaux, produire le jugement est une façon d’organiser la réflexion sur son activité, mais aussi de se redonner du pouvoir d’agir en évitant d’être soumis à des logiques extérieures de performance qui s’imposent souvent aux travailleurs de terrain (Baron & Monnier, 2003 ; Fetterman, Rodríguez-Campos, & Wandersman, 2014).

22Ensuite, les designers doivent apprendre à recourir aux évaluateurs pour ce qu’ils savent (théoriquement) le mieux faire : identifier les valeurs et les croyances sous-jacentes aux prises de position et aux comportements des acteurs ; proposer des méthodes pour rendre compte des effets de l’action publique, c’est-à-dire des outils, mais aussi des savoirs pratiques dans la collecte et l’analyse de données collectées ; et enfin, faire en sorte que leur travaux soient utilisés dans l’action publique (Alkin & Christie, 2004).

23Enfin, évaluateurs et designers doivent trouver comment faire dialoguer leurs visions du monde, la posture évaluative et la vision globale du designer, dans la poursuite du projet.

24Dans la logique de l’évaluation démocratique (House & Howe, 1999), l’évaluateur peut ainsi être le « pendant » du designer : il s’assure que la voix de tous, et en particulier des laissés-pour-compte est prise en compte ; il travaille au dialogue entre toutes les parties prenantes et à leur compréhension mutuelle ; il favorise la délibération en explicitant les valeurs et les croyances derrière les prises de position, et en apportant des constats d’analyse tout en laissant les parties prenantes en tirer les conclusions qui conviennent.

25Dans la logique évolutive (developmental evaluation, Patton, 2010), il peut être un spécialiste qui utilise les concepts de l’évaluation pour cadrer les enjeux, anticiper les problèmes potentiels dans la mise en œuvre et les solutions à y apporter. Embarqué dans l’action, l’évaluateur se met au service du projet en s’adaptant aux changements rapides et aux situations d’incertitude ou d’ambiguïté sur les objectifs et les moyens de les atteindre, pour proposer des rétroactions rapides et adaptées aux besoins.

26D’autres chemins sont possibles : ils restent à inventer.

Conclusion : vers une exploration conjointe

27Le programme d’exploration conjointe que nous annonçons aujourd’hui consiste d’abord à multiplier les expériences dans lesquels les designers sont intégrés dans l’évaluation et les évaluateurs impliqués dans le design, plutôt que de designer l’évaluation ou d’évaluer le design. Cette hybridation constructive transdisciplinaire n’est pas nouvelle pour les designers qui depuis de nombreuses années déjà se « frottent » aux sociologues, aux urbanistes, aux architectes, aux anthropologues et observent leurs disciplines « déteindre » réciproquement – et positivement – les unes avec les autres. Alors pourquoi ne pas mêler design et évaluation ?

28Nous engageons cette année une telle démarche avec un projet visant à reconfigurer la relation entre des collectifs de citoyens et des autorités publiques locales à Bruxelles. Il faut aussi selon nous multiplier les regards croisés et poursuivre l’hybridation, mettre en regard évaluation par des designers et reconception par des évaluateurs. Et s’intéresser de près à l’évaluation d’autres nouvelles formes d’innovation publique, par exemple celle des nudges, qui fait elle aussi débat (Kosters & Van der Heijden, 2015). Avec au bout, nous l’espérons, des pratiques renouvelées.

Bibliographie

Références

  • ALKIN, M. C., & CHRISTIE, C. A. (2004). An Evaluation Theory Tree. Dans M. Alkin, Evaluation Roots : Tracing Theorists’ Views and Influences. Thousand Oaks. California : Sage.
  • BARON, G., & MONNIER, É. (2003). Une approche pluraliste et participative : coproduire l’évaluation avec la société civile. Informations sociales, (110), 1–7.
  • BASON, C. (2014). Design for Policy (1ère édition). Farnham, Surrey, England ; Burlington, VT : Routledge.
  • BEFANI, B., & MAYNE, J. (2014). Process Tracing and Contribution Analysis : A Combined Approach to Generative Causal Inference for Impact Evaluation. IDS Bulletin, 45(6), 17–36. https://doi.org/10.1111/1759-5436.12110
  • BLOMKAMP, E. (2018). The Promise of Co-Design for Public Policy. Australian Journal of Public Administration., 1–19. https://doi.org/10.1111/1467-8500.12310/full
  • BOIS-CHOUSSY, S. (2018, juin 5). Pourquoi évaluer les démarches d’innovation publique par le design ? Repéré à http://www.la27eregion.fr/pourquoi-evaluer-les-demarches-dinnovation-publique-par-le-design/
  • DELAHAIS, T., & LACOUETTEFOUGÈRE, C. (2019). Try again. Fail again. Fail better. Analysis of the contribution of 65 evaluations to the modernisation of public action in France. Evaluation, 1(3), 1–18. https://doi.org/10.1177/1356389018823237
  • DONALDSON, S., GOOLER, L. E., & SCRIVEN, M. (2002). Strategies for managing evaluation anxiety : Toward a psychology of program evaluation. American Journal of Evaluation, 23(3), 261–273. http://doi.org/10.1177/109821400202300303
  • FETTERMAN, D., RODRÍ GUEZ-CAMPOS, L., & WANDERS MAN, A. (2014). Collaborative, participatory, and empowerment evaluation : Building a strong conceptual foundation for stakeholder involvement approaches to evaluation. American Journal of Evaluation, 35(1), 144–148. https://doi.org/10.1177/10982140Q13509875
  • FINDELI, A. (2004). La recherche-projet : une méthode pour la recherche de design. Erstes Designforschungssymposium. Communication présentée à Symposium de recherche sur le design, HGK, Bâle.
  • FINDELI, A. (2016, mars 24). Le Design Social. Communication présentée à la Journée nationale d’études sur le Design de la Société française d’évaluation. Nîmes
  • GAUTHIER, P., & BIHANIC, D. (2015). Appel à articles. Sciences du Design, 2, 15–19.
  • GAUTHIER, P., PROULX, S., & VIAL, S. (2015). Manifeste pour le renouveau social et critique du design. Dans S. Vial, Le Design (p. 120-122). Paris, France : Presses Universitaires de France.
  • GUAY, J. (2019, septembre 27). Public innovation labs are closing – here’s why. Apolitical. Repéré à https://apolitical.co/solution_article/public-innovation-labs-around-the-world-areclosing-heres-why/
  • HOUSE, E., & HOWE, K. R. (1999). Values in Evaluation and Social Research. California : SAGE Publications.
  • HOUSE, E. R. (2014). Evaluating : Values, Biases, and Practical Wisdom. Charlotte, NC : IAP.
  • ISKANDER, N. (2018). Design thinking is fundamentally conservative and preserves the Status Quo. Harvard Business Review. Repéré à https://hbr.org/2018/09/design-thinking-is-fundamentally-conservative-and-preservesthe-status-quo.
  • JÉGOU, F., VINCENT, S., THÉVENET, R., & LOCHARD, A. (2013, juin). Friendly hacking into public sector ; co-creating public policies within regional governments. Communication présentée à Co-create Conference, Aalto University, Helsinki.
  • KOSTERS, M., & VAN DER HEIJDEN, J. (2015). From mechanism to virtue : Evaluating Nudge theory. Evaluation, 21(3), 276–291. Repéré à https://doi.org/10.1177/1356389015590218
  • LA POINTEUSE (2015). L’évaluation engagée. N°1, mars 2015. Paris : Re-Acteur public, 27e Région, Plausible Possible. Repéré à http://www.plausiblepossible.fr/wp-content/uploads/2015/03/POINTEUSE-MISE-EN-PAGE-PDF72dpi.pdf
  • MAYNE, J. (2011). Contribution analysis : addressing cause and effect. In : Schwartz, R., Fross, K., Marra, M. (eds), Evaluating the complex : Attribution, contribution, and beyond, 28 (3),, 53–96. New Brunswick, NJ : Transaction Publishers.
  • PATTON, M. Q. (2010). Developmental evaluation : Applying complexity concepts to enhance innovation and use. New-York : The Guilford Press.
  • PAWSON, R., & TILLEY, N. (1997). Realistic evaluation. California : Sage.
  • QUADRANT CONSEIL. (2015). Évaluation du programme de Transformation écologique et sociale régionale. Conseil régional de Nord-Pas-de-Calais.
  • RIDDE, V. (2016). Need for more and better implementation science in global health. BMJ Global Health, 1(2). Repéré à https://doi.org/10.1136/bmjgh-2016-000115
  • SOCIÉTÉ FRANÇAISE D’ÉVALUATION (2016). Synthèse de la journée nationale de mars 2016. Consulté à http://www.sfe-asso.fr/sites/default/files/document/16-3-24_synthese_seminaire_design_vdef.pdf
  • VINCENT, S., THÉVENET, R., & DAUBRÉE, A. (Éd.). (2010). Design des politiques publiques. Paris : la documentation française.

Mots-clés éditeurs : design de politiques publiques, évaluation des politiques publiques, innovation publique

Date de mise en ligne : 06/12/2019.

https://doi.org/10.3917/sdd.010.0083

bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Avec le soutien de

Retrouvez Cairn.info sur

18.97.9.170

Accès institutions

Rechercher

Toutes les institutions