Couverture de RFS_601

Article de revue

L’objectivité sous contrôle : analyse d’une évaluation randomisée de programmes d’accompagnement des demandeurs d’emploi

Pages 71 à 92

Notes

  • [1]
    Terme pris au sens large dans la mesure où nous incluons une institution paritaire.
  • [2]
    La fusion est inscrite dans la loi du 13 février 2008 relative à l’organisation du service public de l’emploi. Les premières agences Pôle emploi ouvrent le 2 janvier 2009.
  • [3]
    Il s’agit d’une association administrée par des représentants des organisations syndicales et patronales représentatives. Ces administrateurs, nommés par leurs organisations, s’appuient sur le travail des salariés (les « services ») qui ont des contrats de droit privé.
  • [4]
    Parmi les différents dispositifs : aides à la mobilité, aides à la formation, aides aux employeurs, externalisation du placement à des opérateurs privés.
  • [5]
    À cette date la décision de fusionner l’anpe et les Assédic n’est pas encore prise (voir infra).
  • [6]
    Les monographies sont réalisées par deux cabinets ; l’un prestataire régulier de l’anpe et l’autre de l’Unédic. Cette organisation découle notamment d’engagements contractuels pris par l’Unédic avant l’élaboration du protocole d’évaluation conjoint.
  • [7]
    Cette enquête est réalisée par les services statistiques du ministère du Travail (dares). Elle a pour but de recueillir l’avis des demandeurs d’emploi sur l’accompagnement reçu et de caractériser la qualité de l’emploi retrouvé pour ceux qui en ont retrouvé un.
  • [8]
    Certaines personnes étaient membres des deux comités, notamment celles occupant les fonctions de direction au sein de la Direction des études et statistiques de l’Unédic.
  • [9]
    Elle se déroule concomitamment à deux autres évaluations de recours aux opp qui mobilisent la même méthodologie : l’accompagnement par l’entreprise australienne Ingeus de certains bénéficiaires du rmi dans les Hauts-de-Seine et le programme « Accompagnement des jeunes diplômés » commandité par la dgefp.
  • [10]
    Elle intervient antérieurement aux « expérimentations sociales à la française » (Bureau et al., 2013) qui ont connu un essor important ensuite avec la création d’un Fonds d’expérimentation pour la jeunesse (fej) en 2008 (Simha, 2015).
  • [11]
    L’absence de biais de sélection est impossible. Elle consisterait à comparer la situation d’un même individu au même moment avec ou sans l’effet du dispositif.
  • [12]
    Cette promotion passe par des interventions publiques orales (conférences, séminaires, etc.) et écrites (articles scientifiques, tribunes de presse, etc.).
  • [13]
    Spécialiste de l’évaluation des politiques du marché du travail, il a joué un rôle important dans le développement de la méthode expérimentale en France et participe à l’évaluation opp/cve.
  • [14]
    Le volume de demandeurs d’emploi concerné est similaire, les profils de demandeurs d’emploi éligibles et les caractéristiques de l’accompagnement sont proches, l’objectif est le retour à l’emploi « durable » (en l’occurrence pour six mois ou plus). Surtout, les conditions de travail des agents qui dispensent cet accompagnement sont les plus proches possibles de celles des salariés des opérateurs privés, c’est-à-dire que chaque conseiller accompagne au maximum 60 demandeurs d’emploi, appartient à une équipe dédiée à ce programme et « consacre 100 % de son temps à cette fonction », anpe, direction de l’intermédiation, Présentation à destination des agences locales d’emploi, 2006.
  • [15]
    Notons que, dans cette évaluation, l’échantillon « témoin » habituellement considéré comme « non traité » dans la théorie de l’évaluation randomisée est composé de chômeurs qui reçoivent un accompagnement destiné aux « personnes éloignées de l’emploi » délivré par l’anpe, dit « accompagnement classique » dans le cadre de l’évaluation par comparaison avec les deux programmes d’accompagnement renforcé.
  • [16]
    À titre d’exemple, les demandeurs d’emploi accompagnés par le privé sont tous indemnisés, ce qui n’est pas le cas de ceux orientés vers le dispositif public d’accompagnement renforcé.
  • [17]
    Les quatre échantillons à comparer deux à deux sont donc, premièrement, celui composé des bénéficiaires de l’accompagnement renforcé public, deuxièmement, le groupe de contrôle, troisièmement, celui composé des bénéficiaires de l’accompagnement renforcé privé et, quatrièmement, le groupe de contrôle.
  • [18]
    Si les agents de la dares et de la dgefp continuent à assurer un suivi de l’évaluation – notamment en participant aux comités de pilotage – ils n’interviennent pas directement dans cette phase.
  • [19]
    Cet outil est également surnommé « moulinette » ou « boite à coucou » par les conseillers de l’anpe et les salariés de l’Unédic.
  • [20]
    Cet encadré est réalisé à partir d’informations issues des entretiens, de différentes présentations de l’évaluation à laquelle nous avons assisté, de Luc Behaghel et al. (2008) et de L’accompagnement renforcé des demandeurs d’emploi. L’évaluation des expérimentations, anpe, Unédic, dares, janvier 2008, 1. Voir : https://dares.travail-emploi.gouv.fr/IMG/pdf/Evaluation_OPPCVE_n1.pdf.
  • [21]
    Dans un premier temps, le conseiller évalue le demandeur d’emploi pour identifier sa « distance à l’emploi » et donc le parcours dont il relève. Dans un second temps, si le demandeur est éligible à l’accompagnement renforcé, le conseiller est supposé suivre les préconisations de l’outil d’affectation aléatoire pour l’orienter vers l’accompagnement renforcé public, privé ou l’accompagnement classique de l’anpe.
  • [22]
    Note aux réseaux Assédic et anpe. Conditions d’identification et d’orientation des publics éligibles aux dispositifs d’accompagnement renforcé, Note de cadrage opérationnel, anpe, Unédic, 15 janvier 2007, p. 4.
  • [23]
    Courrier en date du 21 décembre 2006.
  • [24]
    Compte rendu du groupe technique du 13 septembre 2007.
  • [25]
    Les données demandées sont les suivantes : « Indemnisation perçue par chaque demandeur d’emploi passé par opp, coût global de rémunération des opp et coût de l’accompagnement de chaque demandeur d’emploi par l’opp », Compte rendu du comité de pilotage technique du 30 janvier 2008.
  • [26]
    Entretien avec le président du comité de pilotage de l’évaluation opp/cve, janvier 2010. Bien que l’anpe ne dispose pas de comptabilité analytique, il met en avant les blocages politiques et non techniques pour expliquer la non-réalisation de cette enquête.
  • [27]
    Ces résultats font état, pour les taux de sortie à six mois vers l’emploi des indemnisés, pour cve d’une augmentation située dans une fourchette de 3,7 à 13,1 points de pourcentage (avec un degré de confiance de 95 %) et pour les opp d’une plus-value située entre -1,8 et 7,9 points de pourcentage. D’où la conclusion de résultats qui ne permettent pas d’affirmer que l’impact est positif. Les fourchettes de résultats sont larges en raison de marges d’incertitude encore importantes mais amenées à se réduire au fil de l’évaluation (Behaghel et al., 2008, p. iii-iv).
  • [28]
    Il est composé de cinq représentants des organisations syndicales et cinq représentants des organisations patronales représentatives. Certains membres de la direction générale de l’Unédic y assistent.
  • [29]
    Unédic, Procès-verbal du Bureau de l’Unédic du 24 juin 2008.
  • [30]
    Entretien avec le président du comité de pilotage, janvier 2010.
  • [31]
    Entretien avec le président du comité de pilotage, janvier 2010.
  • [32]
    Fonds d’expérimentation pour la jeunesse, Guide méthodologique pour l’évaluation des expérimentations sociales à l’attention des porteurs de projet, voir : https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=2ahUKEwiAt8jzpIvgAhUQlhQKHcnpBLsQFjAAegQIABAC&url=http%3A%2F%2Fwww.experimentation.jeunes.gouv.fr%2FIMG%2Fpdf%2Fguide-pour-l-evaluation-des-experimentations.pdf&usg=AOvVaw0e4E1N4wvxpnwSf4xeMkd1 (téléchargé le 26 janvier 2019).
  • [33]
    Le marché est lancé le 27 mars 2009.
  • [34]
    Entretien avec l’un des évaluateurs ayant réalisé l’évaluation randomisée, octobre 2009.
  • [35]
    Conférence de presse citée dans une dépêche afp du 7 octobre 2009.
  • [36]
    « L’évaluation d’impact montre la plus-value des accompagnements renforcés par rapport à l’accompagnement classique en termes de retour à l’emploi. Un an après leur entrée dans l’expérimentation, le taux de sortie vers l’emploi des demandeurs d’emploi accompagnés par les opp s’est accru de 5,6 points en moyenne. Le taux de sortie vers l’emploi des demandeurs d’emploi indemnisables suivis par les équipes cve s’est, quant à lui, accru de 7,3 points. Il a été constaté que le programme cve avait un effet plus rapide et plus élevé sur le taux de sortie vers l’emploi. En effet, dès le troisième mois, un surcroit de sorties des listes était observable, alors que, pour les opérateurs privés de placement, les effets n’étaient significatifs qu’à partir du sixième mois. », Comité de pilotage de l’évaluation, 2010, « Les expérimentations d’accompagnement renforcé des demandeurs d’emploi conduites par l’Unédic et l’anpe en 2007 », Rapport de synthèse du comité de pilotage, 5 octobre 2009, p. i-iii.

1 La méthode d’évaluation dite « randomisée » participe d’une évolution de l’action publique marquée par la légitimité croissante conférée à l’évaluation et plus particulièrement à l’évaluation chiffrée de l’efficacité de dispositifs de politiques publiques. À partir de l’étude approfondie de la mise en œuvre d’une évaluation randomisée, cet article interroge, du point de vue de l’administration [1], les pratiques de cette méthodologie d’évaluation et ses effets sur la conduite de l’action publique. Cela nous amène ensuite à examiner les formes d’instrumentalisation de l’évaluation par les différents acteurs impliqués et à discuter la notion d’objectivité. Ce travail permet à la fois d’analyser les processus de légitimation de l’évaluation et les usages faits des évaluations dans la conduite de l’action publique.

2 Le cas étudié est l’évaluation dite « opp/cve » (Opérateurs privés de placement/Cap vers l’entreprise) du nom de deux programmes concurrents d’accompagnement renforcé au retour à l’emploi des chômeurs déployés entre 2006 et 2008. Cette évaluation se trouve au cœur des débats en cours sur l’architecture institutionnelle du service public de l’emploi français parce qu’elle interroge la division du travail entre institutions. Au moment où elle est lancée, l’organisation en vigueur est la suivante : depuis 1967, l’Agence nationale pour l’emploi (anpe) est un opérateur public en charge du placement et l’Unédic (qui fédère les Assédic, qui sont les agences régionales et locales) est une organisation paritaire en charge de l’indemnisation. Cette organisation bicéphale prend fin au cours de la mise en œuvre de l’évaluation [2] avec la fusion de l’anpe et des Assédic au sein de Pôle emploi. L’Unédic demeure. L’accompagnement évalué – dit « renforcé » par comparaison avec l’accompagnement « classique » – consiste à accorder aux demandeurs d’emploi des rendez-vous plus fréquents pour un suivi plus personnalisé. Le premier programme, « opp », est décidé par l’institution d’assurance chômage (Unédic) en juillet 2006 pour un lancement en novembre. Il organise l’externalisation de l’accompagnement des demandeurs d’emploi à des opérateurs privés et – fait nouveau – prévoit de les rémunérer en fonction des résultats obtenus en matière de retour à l’emploi des personnes accompagnées. Le second, « cve », est initié par l’opérateur public (Agence nationale pour l’emploi) pour contrer le marché passé par l’Unédic en proposant un service similaire. L’objectif de ce dispositif ad hoc est de fournir un point de comparaison dans le cadre de l’évaluation randomisée qui vient mesurer l’efficacité des programmes d’accompagnement en matière de retour à l’emploi.

3Quelles que soient leurs formes – benchmarking, évaluation interne, externe, etc. –, les démarches d’évaluation se multiplient et leur légitimité à orienter l’action publique ou les réformes des organisations croit (Bezès, 2009 ; Bruno, 2008 ; Bruno et Didier, 2013 ; Bruno et al., 2014 ; Conter et al., 2008 ; Cussó et Gobin, 2008 ; Jany-Catrice, 2012 ; Vauchez, 2008). Pour les évaluateurs qui la promeuvent, l’évaluation randomisée pourrait mesurer l’efficacité d’un « traitement » – en l’occurrence, le dispositif de politiques publiques évalué – en comparant un groupe traité et un non traité. Ils la présentent comme une « observation » qu’ils considèrent de ce fait comme nécessairement objective et, pour cette raison, de nature à produire des résultats légitimes à orienter l’action publique.

4 La mise en œuvre de l’évaluation randomisée fait entrer en jeu d’autres acteurs – les commanditaires – et se trouve au centre des conflits institutionnels en cours au sein du service public de l’emploi. Alors qu’ils justifient le choix de la méthode randomisée par la fiabilité qui découlerait de son objectivité, l’examen de leurs interventions dans les différentes phases de l’évaluation destinées à défendre leurs institutions d’appartenance respectives conduit à questionner cette objectivité.

5 Pour analyser cette tension, nous croisons la sociologie de la quantification (Desrosières, 2000 et 2008) et la sociologie des institutions (Lagroye et Offerlé, 2011). La première nous donne des outils pour étudier les pratiques de quantification et leurs effets sociaux à partir de l’analyse des manières dont les conventions qui sous-tendent les évaluations s’élaborent. Nous reprenons de ces travaux l’idée que la mesure est la seconde étape de l’action de quantifier qui « implique qu’il existe une série de conventions préalables, de négociations, de compromis, de traductions, d’inscriptions, de codages et de calculs conduisant à la mise en nombre. [...] [La mise en nombre] ne fournit pas seulement un reflet du monde [...], mais elle le transforme, en le reconfigurant autrement » (Desrosières et Kott, 2005, p. 2).

6 Nous nous appuyons sur cette analyse pour outiller notre déconstruction de l’objectivité et analyser le travail politique de mise en forme des conventions d’évaluation. Les travaux sur l’évaluation discutent des caractéristiques des méthodologies d’évaluation (Gomel et Serverin, 2011, 2013 ; Jatteau, 2013 ; Labrousse et Zamora, 2013), analysent les conditions du développement de l’évaluation (Barbier et Matyjasik, 2010) ou éclairent l’usage des résultats en termes d’instrumentalisation (Okbani, 2014). Pour étudier le rôle des logiques institutionnelles dans l’élaboration des conventions qui sous-tendent les évaluations trop souvent laissées dans l’ombre, nous nous appuyons sur la sociologie des institutions. Sans nier le fait que les positions défendues par les différentes institutions sont le fruit de négociations internes qui peuvent être conflictuelles, nous choisissons de porter notre regard sur les négociations interinstitutionnelles. En effet, celles-ci sont analysées exclusivement dans les travaux de politiques sectorielles et ne le sont pas dans les travaux sur l’évaluation. Ce cadre théorique justifie que notre approche prenne pour objet les interventions des acteurs des différentes institutions commanditaires de l’évaluation et non directement les producteurs de l’évaluation randomisée. Si ces acteurs ne sont pas absents de notre analyse, nous étudions leurs positions et leurs discours mais seulement dans leurs interactions avec les commanditaires.

7 Dans la première partie de cet article, nous analysons la phase d’élaboration de l’évaluation afin de comprendre la définition négociée de son objet à la lumière des conflits institutionnels en cours dans le service public de l’emploi. Dans la deuxième, consacrée à la mise en œuvre, nous examinons les effets de l’évaluation sur les dispositifs d’accompagnement et les interventions des acteurs pour garder le contrôle sur une évaluation qu’ils veulent pourtant objective. Enfin, dans la troisième et dernière partie, nous étudions les ressorts de la légitimation des résultats de cette évaluation et leur mobilisation dans les décisions d’action publique.

Encadré 1. – Méthodologie

Ce texte s’appuie sur un travail de terrain réalisé lors d’une thèse de sociologie sur l’institutionnalisation du recours aux opérateurs privés de placement (opp) au sein du service public de l’emploi français entre 2003 et 2011 (Vivès, 2013).
Nous nous référons prioritairement aux vingt entretiens réalisés avec des évaluateurs et les acteurs parties prenantes de l’évaluation dans les différentes institutions impliquées. Nous mobilisons également des entretiens dans lesquels la question de l’évaluation n’était pas centrale mais présente (par exemple, avec des représentants des organisations syndicales et patronales, des directeurs de site concernés par l’évaluation, etc.). De plus, nous exploitons un corpus de documents relatifs à l’évaluation composé de rapports intermédiaires et finaux, de comptes rendus des réunions du Bureau de l’Unédic et du comité de pilotage technique et politique de l’évaluation, de courriers, etc. La participation à des séminaires de présentation de l’évaluation randomisée et à une soutenance de thèse sur l’accompagnement des demandeurs d’emploi (Gratadour, 2009) ont contribué à notre connaissance de cette évaluation. Notre présence au sein de l’Unédic du 1er septembre 2008 au 31 août 2011 en tant que doctorante titulaire d’un contrat cifre (Convention industrielle de formation par la recherche) a constitué une position d’observation privilégiée qui a très largement enrichi notre compréhension de cette séquence de réforme. Le fait d’être salariée de l’Unédic aurait pu constituer un biais dans la collecte du matériau. Celui-ci nous parait limité pour plusieurs raisons. Lorsque nous avons interrogé les acteurs, nous l’avons fait en tant qu’étudiante en cours de thèse, certes en contrat cifre au sein de l’Unédic, mais ceci ne faisait pas de nous une salariée « ordinaire ». De plus, nos sujets de travail pour l’Unédic n’étaient pas liés à l’évaluation. Surtout, la temporalité de notre recherche au regard de la temporalité de la réforme du service public de l’emploi a permis de limiter d’éventuels biais. Nous avons commencé notre travail de thèse en septembre 2008 et avons lancé des investigations sur l’évaluation à l’automne 2009. La fusion, votée en février 2008, est alors en cours de réalisation. Les questions conflictuelles et donc les enjeux de l’évaluation ne sont plus les mêmes. Ceci explique que les acteurs aient répondu à nos questions. La difficulté provenait plutôt du fait que, d’une part, ils étaient accaparés par la mise en œuvre de la fusion et, d’autre part, certains jugeaient la question de l’évaluation obsolète et sans intérêt désormais. Elle avait été un motif important de tensions devenu sans objet. Pour d’autres, l’entretien et plus largement le travail que nous réalisions étaient une occasion de s’exprimer sur cette expérience et de « faire avancer le débat » (pour reprendre les mots d’un économètre), non pas au sujet de cette évaluation précise mais pour l’avenir de l’évaluation en général.

Élaborer une évaluation « objective » : une construction négociée

8Si tous les acteurs utilisent la même dénomination « évaluation opp/cve », l’objet et les caractéristiques de cette évaluation sont le résultat d’un processus d’élaboration conflictuel que nous analysons au regard des conflits institutionnels en cours au sein du service public de l’emploi. Nous mettons ainsi en lumière une tension entre une attente forte des commanditaires vis-à-vis d’une évaluation chiffrée de l’efficacité dont les résultats, en raison de leur objectivité, leur permettraient de peser sur ces conflits et l’intervention des acteurs dans l’évaluation précisément en raison de l’importance des enjeux.

Évaluer ensemble faute de se faire confiance sur la réalisation d’une évaluation « correcte »

9Comment des acteurs appartenant à des institutions en conflit en sont-ils venus à élaborer et commanditer conjointement une évaluation ? La mise en place d’une évaluation de l’externalisation du placement par l’Unédic devient le catalyseur des conflits en cours entre institutions du service public de l’emploi. Le service public de l’emploi français est structuré, de 1967 à 2008, autour de trois institutions principales : l’Unédic, une institution paritaire [3] d’assurance chômage qui, depuis 1958, a principalement en charge l’indemnisation des demandeurs d’emploi ; l’Agence nationale pour l’emploi, un opérateur public qui assure notamment les missions de gestion de la liste des demandeurs d’emploi, d’accompagnement et de placement et les services ministériels (Direction générale à l’emploi et la formation professionnelle [dgefp] et Direction de l’animation de la recherche des études et des statistiques [dares]) qui ont à la fois des missions de contrôle de l’assurance chômage, de tutelle de l’opérateur public, de médiation entre ces deux institutions et de production de statistiques et d’évaluation en matière de politiques d’emploi. Le développement de politiques dites « d’activation » à partir des années 1990 et leur approfondissement dans les années 2000 brouillent la division institutionnelle du travail entre indemnisation et placement. Ces politiques, menées dans l’ensemble des pays de l’ocde, reposent sur l’idée que, le chômage étant volontaire, il pourrait être réduit en faisant de l’indemnisation un outil d’incitation au retour à l’emploi qui modifierait le comportement des chômeurs (Fretel et al., 2018). En France, cela s’est notamment traduit par l’élaboration d’interventions coordonnées des institutions d’indemnisation et de placement et par le développement, au sein de l’institution d’assurance chômage, de dispositifs visant à accélérer le retour à l’emploi [4] (Pillon et Vivès, 2019). S’il n’y a pas, entre les directions de l’anpe et de l’Unédic, de désaccord sur l’activation comme orientation de politique d’emploi, les modalités de sa réalisation sont au centre de conflits de plus en plus vifs (Vivès, 2016). Les directions s’opposent sur la meilleure articulation entre indemnisation et placement et sa traduction institutionnelle. Faut-il fusionner ou coordonner [5] ? En cas de fusion, qui de l’anpe ou de l’Unédic serait l’institution dominante (Vivès, 2016) ? Ces conflits sur l’architecture institutionnelle du service public de l’emploi se manifestent lors du déploiement de mesures d’activation spécifiques. Ils se cristallisent particulièrement autour de l’externalisation du placement engagée par l’Unédic au motif que les prestataires privés seraient plus efficaces que l’anpe pour remettre en emploi les allocataires. Du côté de la direction de l’anpe, l’externalisation est perçue comme une menace d’autant plus sérieuse qu’elle est soutenue par le gouvernement qui, avec la loi dite « Borloo », a, en 2005, ouvert la possibilité d’une mise en concurrence de l’anpe sur cette activité. Si entre 2003 et 2006 les premiers marchés de prestations externalisées passés par la direction de l’Unédic sont numériquement anecdotiques, le quatrième marché lancé en 2006 est lui d’une ampleur supérieure aux précédents puisqu’il concerne 92 000 allocataires et dix-sept prestataires. Dans ce contexte, l’évaluation de l’efficacité de ces prestataires devient une question de premier plan.

10La direction de l’Unédic souhaite réaliser une évaluation de l’efficacité des prestataires privés pour remettre à l’emploi les allocataires. Les comptes rendus des réunions de Bureau de l’Unédic comme les récits sur la genèse de l’évaluation recueillis en entretiens en témoignent. Elle présuppose que cette évaluation démontrera que le privé est plus efficace que l’anpe et elle compte faire de ces résultats un point d’appui pour légitimer la prise de pouvoir de l’Unédic sur l’organisation du retour à l’emploi des allocataires au détriment de l’opérateur public.

11À partir du moment où la direction de l’anpe prend connaissance de ce projet, au cours d’une réunion où la direction générale de l’Unédic leur présente un dispositif d’évaluation de cette expérimentation, elle cherche à en empêcher la mise en œuvre. Selon la directrice des études, de l’évaluation et des statistiques de l’anpe, cette « évaluation de coin de table » exclusivement conçue et contrôlée par l’Unédic ne peut que déboucher sur les résultats attendus par l’Unédic. Face à ce conflit, un troisième acteur intervient : la Délégation générale à l’emploi et à la formation professionnelle (dgefp). Pour la déléguée alors en fonction, il s’agit de mettre d’accord les deux directions qui s’opposent en imposant une évaluation réalisée conjointement par les trois institutions. Plus largement, elle attend de cette évaluation que, par sa fiabilité, elle permette d’arbitrer les conflits récurrents entre anpe et Unédic, qui commencent à « faire désordre », notamment ceux survenus lors des premières expérimentations.

12

« La première phase avait été menée dans son coin par l’Unédic. C’étaient des petits volumes... chacun pouvait trouver ce qu’il souhaitait dans l’évaluation et chacun en plus mettait sur la place publique ce qu’il en retirait puisqu’il y avait un combat par médias interposés entre l’anpe et l’Unédic sur l’évaluation. Ce n’était absolument pas acceptable ni pour le ministère, ni pour le ministre, d’où la question de mettre en place une véritable évaluation pour la dernière phase d’expérimentation et ça, ça s’est fait dans le conflit. [...] Si on a eu une réunion sur l’évaluation [avec le cabinet du ministre], c’est parce qu’il y a eu un problème politique de refus de l’anpe et de l’Unédic que l’État soit dans l’évaluation et que l’évaluation se mette en place correctement. » (Entretien avec la déléguée générale ajointe à l’Emploi et à la Formation professionnelle au moment des expérimentations, septembre 2010).

13 Cette cadre du ministère met ici en lumière le fait qu’une fois qu’ils se sont accordés sur le principe de l’évaluation conjointe, les acteurs des différentes institutions doivent convenir ensemble de ce qu’est une évaluation « correcte ». La mise en place de l’évaluation conjointe est la solution imposée par le ministère du Travail aux conflits qui opposent les directions de l’Unédic et l’anpe sur la manière d’évaluer l’externalisation du placement et plus largement sur la place de l’Unédic et des prestataires privés dans le service public de l’emploi. Accepter l’évaluation conjointe est un moyen pour les différents acteurs de ne pas perdre le contrôle sur l’évaluation des différents programmes. Le fait que les conflits se cristallisent autour de l’évaluation révèle que, pour chacune des trois directions, les résultats de cette évaluation seront des outils légitimes à appuyer les décisions à venir sur l’architecture institutionnelle du service public de l’emploi.

Le choix de la méthodologie de l’évaluation randomisée : l’attente d’une mesure « fiable » de l’efficacité

14Étudier le choix méthodologique d’évaluer l’efficacité de l’accompagnement par une évaluation randomisée éclaire l’importance que les cadres dirigeants des trois institutions impliquées accordent à la mesure chiffrée de l’efficacité dans la conduite de l’action publique. Une fois d’accord sur l’existence d’une évaluation conjointe, les parties prenantes doivent définir ensemble le protocole d’évaluation. Le choix d’un protocole avec plusieurs méthodologies fait consensus. Trois types d’enquête sont réalisés : les enquêtes monographiques [6], l’enquête statistique [7] et l’évaluation randomisée. Les parties s’accordent également sur l’organisation du pilotage de l’évaluation autour de deux comités : l’un qualifié de « comité technique » et l’autre de « comité de pilotage », ou « comité politique », ou « comité stratégique ». Le comité de pilotage « politique » est principalement composé de membres des directions générales des institutions concernées, alors que le comité de pilotage « technique » regroupe essentiellement les spécialistes des évaluations au sein des différentes institutions [8].

15Dans l’élaboration de ce protocole, un point concentre l’attention : le choix de la méthode qui permettra une évaluation chiffrée de l’efficacité. La direction générale de l’anpe propose l’évaluation randomisée et sa réalisation par une équipe d’économètres principalement issus de deux institutions de recherche académique : le Centre de recherche en économie et statistique (crest) et l’École d’économie de Paris (eep). Des liens anciens existent avec ces évaluateurs, dont certains ont déjà réalisé des évaluations pour l’opérateur public (avec d’autres méthodes et pour d’autres dispositifs). Ils démarchent la Direction des études et statistiques de l’anpe alors qu’ils cherchent à introduire et promouvoir leur méthode en France. D’abord développées aux États-Unis (Allègre, 2008 ; Monnier, 1987) où elles ont connu une période de recul avant de « retrouver aujourd’hui un nouvel élan parmi les économistes » (Labrousse et Zamora, 2013, p. 5), les évaluations randomisées reviennent en force dans les pays du Nord et notamment en France, après avoir été reprises par l’économie du développement (Labrousse, 2010). L’évaluation opp/cve marque l’introduction de cette méthodologie en France [9] et joue un rôle-clé dans sa diffusion [10].

16L’évaluation randomisée est une méthode d’évaluation d’impact empruntée à la médecine expérimentale. Elle repose sur la composition, par assignation aléatoire, de deux groupes statistiquement comparables (groupes test et témoin). On applique un traitement à l’un d’entre eux et on évalue les effets du traitement (ou la « plus-value » du programme pour les dispositifs de politiques publiques) par comparaison avec le groupe non traité. Le fait que la comparaison soit réalisée sur deux groupes existants constitués par échantillonnage aléatoire – c’est-à-dire par tirage au sort dans une même population – est considéré par les économètres qui promeuvent cette méthodologie comme limitant au maximum [11] les « biais de sélection » et ferait de cette méthode la plus fiable parmi les évaluations d’impact (Crépon, 2008a). Elle vise également « une forte validité externe des résultats obtenus (puisque ces expérimentations se déroulent dans un cadre réel et dans des conditions aussi proches que possibles du cadre habituel de vie des acteurs) » (Labrousse et Zamora, 2013, p. 6). Autrement dit, elle permettrait d’anticiper les effets d’une généralisation.

17Pour les économètres qui la promeuvent [12], cette méthodologie serait le « gold standard » de l’évaluation et la seule à fournir des données objectives. Selon Esther Duflo (2009), qui a joué un rôle-clé dans le développement de l’évaluation randomisée en France et à l’étranger, cette méthodologie serait en mesure de produire un jugement fiable sur l’efficacité d’une politique sur lequel il serait légitime et souhaitable de s’appuyer pour alimenter les décisions relatives à l’avenir d’un dispositif. Bruno Crépon (2008b, p. 123-124), qui évalue opp/cve[13], partage cette confiance : « Ces résultats [...] ont la force de l’évidence. C’est-à-dire qu’ils vont s’imposer à tous et, plutôt que d’avoir des résultats d’évaluation et d’étude qui vont faire débat, qui vont sans cesse être l’objet de disputes ou de querelles de spécialistes, on va avoir des résultats qui, au contraire, sont plutôt de nature à alimenter le débat et qui sont susceptibles de faire progresser la connaissance et la conduite des politiques économiques. »

18Cette conception de l’usage légitime des résultats pour appuyer des décisions d’action publique rencontre un certain écho au sein des directions générales des institutions du service public de l’emploi. Un consensus se crée donc entre les évaluateurs désireux d’introduire cette méthodologie en France et les dirigeants des institutions du service public de l’emploi qui veulent peser sur l’architecture institutionnelle du service public de l’emploi.

La définition négociée de l’objet de l’évaluation randomisée

19Pour clore la phase d’élaboration de l’évaluation, les directions des institutions impliquées doivent définir l’objet de l’évaluation randomisée. L’analyse de cette phase montre que, loin de la conception des économètres qui réalisent cette méthode selon laquelle les résultats de l’évaluation randomisée seraient de simples observations, la définition de l’objet résulte de négociations entre commanditaires, conformément à l’idée que quantifier consiste d’abord à s’accorder sur des conventions de mesure avant de mesurer (Desrosières et Kott, 2005).

20Dans le cas que nous étudions, cette négociation est d’autant plus importante qu’il ne s’est pas déroulé conformément au cas d’école. Alors que la « théorie » de l’évaluation randomisée prévoit que le dispositif et son évaluation sont élaborés de manière conjointe (L’Horty et Petit, 2010), dans cette évaluation un bricolage a été réalisé au départ : le protocole d’évaluation est construit après le dispositif.

21Pour la direction de l’Unédic, l’évaluation doit mesurer l’apport d’un accompagnement renforcé par les opérateurs privés par comparaison avec l’accompagnement « classique » de l’anpe. Avant l’externalisation, c’était le seul existant et celui dont les résultats jugés insuffisants ont motivé le recours au privé. Pour la direction de l’anpe, il n’est pas correct de faire une telle comparaison. Elle souhaite que soient comparées les performances du public et du privé lorsqu’ils sont dans des conditions de travail comparables pour démontrer qu’à conditions de travail similaires les agents publics sont aussi efficaces que ceux du privé. La direction de l’anpe parvient, dans les grandes lignes, à imposer sa définition de l’objet. La solution de compromis trouvée, aussi bien pour des raisons scientifiques que politiques, consiste à réaliser en parallèle deux évaluations randomisées des programmes d’accompagnement renforcé : l’une qui mesure l’impact de l’accompagnement délivré par le privé par rapport à l’accompagnement classique et l’autre d’un dispositif élaboré de manière ad hoc par l’opérateur public par rapport à l’accompagnement classique. Ce dispositif, intitulé « Cap vers l’entreprise », a comme caractéristique d’être le plus proche possible des prestations externalisées au privé pour pouvoir être comparé [14]. Au regard du fonctionnement de cette méthode, il est impossible de comparer directement les programmes public et privé d’accompagnement renforcé puisqu’il s’agit de comparer un groupe « traité » et « non traité » [15]. Quant à faire une comparaison sur trois échantillons : opp, cve, classique, cela n’est pas statistiquement rigoureux dans la mesure où les demandeurs d’emploi des deux programmes d’accompagnement n’ont pas les mêmes propriétés statistiques [16]. Il faut donc construire quatre échantillons avec des échantillons comparables deux à deux [17], ce qui se traduit par des contraintes dans la réalisation de l’évaluation.

22Cette construction est révélatrice du fait que, loin d’être une « observation neutre », l’évaluation randomisée est construite par les interventions des différentes institutions du service public de l’emploi au gré des rapports de force dans les conflits institutionnels. De plus, l’existence de l’évaluation provoque des réactions chez les commanditaires qui modifient la réalité observée – en l’occurrence via la création d’un nouveau dispositif.

23L’externalisation de l’accompagnement au privé cristallise les conflits en cours sur l’architecture institutionnelle du service public de l’emploi, et l’évaluation de ce dispositif prend une importance cruciale. Il y a une attente forte vis-à-vis de l’évaluation randomisée pour sa capacité à fournir une évaluation « objective » parce qu’issue d’une simple observation. Cependant, l’analyse de l’élaboration de cette évaluation montre que son caractère objectif doit être relativisé. En effet, l’objet, et plus largement les conventions de mesure de cette évaluation sont le résultat de négociations. De plus, la création par l’opérateur public d’un programme d’accompagnement renforcé montre que l’existence de l’évaluation randomisée transforme la réalité évaluée.

Produire le chiffre : obtenir un résultat objectif mais sous contrôle

24Cette deuxième partie analyse la mise en œuvre du protocole d’évaluation au sein de l’anpe et de l’Unédic [18]. Alors que l’évaluation est supposée répondre à une attente d’apaisement des conflits ou de leur résolution en les tranchant, elle a pour effet premier d’organiser la comparaison entre les performances de l’opérateur public et des opérateurs privés et avive ainsi la concurrence et les tensions entre les deux institutions. Une double tension se fait alors jour. D’une part, entre la bonne marche des programmes d’accompagnement renforcé et le respect du protocole d’évaluation. D’autre part, entre la volonté de réaliser l’évaluation pour produire un résultat fiable sur lequel s’appuyer pour orienter l’action publique et celle de garder le contrôle sur celle-ci.

Une évaluation qui modifie la réalité observée

25L’analyse de la réalisation de l’évaluation randomisée confirme la confusion entre les dispositifs d’accompagnement renforcé et leur évaluation. Contrairement à l’affirmation des économètres selon laquelle l’expérimentation viendrait mesurer « de manière neutre » l’impact d’un dispositif, son déroulement montre qu’en organisant la concurrence entre institutions elle vient modifier la réalité qu’elle est supposée mesurer. L’étude des processus d’orientation des demandeurs d’emploi vers les différents programmes d’accompagnement évalués en témoigne.

26L’orientation des demandeurs d’emploi se fait par tirage au sort à l’aide d’un outil d’affectation aléatoire appelé « outil de constitution de cohortes » [19] qui compose les quatre échantillons statistiquement comparables deux à deux. Le respect des consignes d’orientation est central pour assurer la fiabilité de l’évaluation (voir supra).

Encadré 2. – L’outil de constitution de cohortes et son utilisation[20]

À l’issue du premier entretien professionnel, le demandeur d’emploi est orienté vers un parcours de recherche accompagnée. Pendant la durée de l’expérimentation, pour les demandeurs identifiés comme « éloignés de l’emploi », l’affectation du demandeur d’emploi dans l’un des trois dispositifs d’accompagnement (opp/cve/parcours classique) est réalisée in fine par l’outil de constitution des cohortes.
Il s’agit d’une application développée à l’automne 2007 et installée sur les postes informatiques des conseillers de l’anpe. Pour les demandeurs d’emploi pour lesquels le conseiller identifie un besoin d’accompagnement renforcé, l’outil tire au sort parmi les trois prestations qu’ils sont susceptibles de suivre, avec des probabilités spécifiques à différentes situations et à chaque agence. Cet outil d’affectation aléatoire dans un programme garantit que la sélection et l’affectation ne sont pas biaisées par des considérations subjectives, telles que la motivation du demandeur d’emploi ou la compétence supposée meilleure d’un opérateur par rapport à un autre. Il permet aussi d’ajuster les affectations en fonction des places disponibles dans les différents programmes. Les deux groupes témoins sont constitués parallèlement en fonction des caractéristiques des demandeurs d’emploi orientés vers les prestations publique et privée d’accompagnement.

27Bien que ce soit pour des raisons différentes, ni les travailleurs de l’anpe, ni ceux de l’Unédic ne respectent le protocole d’orientation prévu par l’évaluation. L’analyse des dimensions institutionnelles, organisationnelles et professionnelles permet de comprendre les comportements des agents vis-à-vis de l’orientation.

28Du côté de l’anpe, les conseillers devraient suivre les consignes de l’outil d’affectation pour orienter les demandeurs d’emploi [21], ce qu’un certain nombre d’entre eux refusent. Ceux qui s’opposent à l’externalisation de l’accompagnement par l’Unédic refusent d’orienter les demandeurs d’emploi vers les prestataires privés et espèrent faire échouer ce marché et défendre ainsi leur institution, qu’ils jugent menacée. Ceux qui rejettent les modalités d’orientation prévues dans l’évaluation refusent de consulter l’outil de constitution de cohortes pour ne pas le laisser déterminer in fine le type d’accompagnement renforcé reçu (par le public ou le privé), voire l’absence d’accompagnement renforcé. Ils refusent ainsi d’être dépossédés de l’orientation qu’ils considèrent comme leur cœur de métier alors que, pour les besoins de l’évaluation, elle devrait en partie leur échapper [22]. Les réactions suscitées par cette dépossession sont d’autant plus vives que l’expérimentation intervient dans un contexte de mise en cause récurrente de leur travail et de menace sur leurs prérogatives en matière d’accompagnement et de placement (Vivès, 2013).

29Une partie des salariés des Assédic ne respectent pas non plus le protocole d’orientation. Pour pallier le déficit de demandeurs d’emploi orientés vers les prestataires privés, ils décident de respecter plutôt les consignes de leurs supérieurs hiérarchiques, qui leur demandent de constituer des listes de demandeurs d’emploi à orienter vers le privé sans suivre le protocole d’affectation. Ce contournement reflète la priorité qu’ils donnent au marché d’accompagnement externalisé sur la procédure d’évaluation, à un moment où, faute d’avoir suffisamment d’allocataires à accompagner, les prestataires font face à d’importantes difficultés – notamment de trésorerie – qui menacent la poursuite du marché. Ces directives et ces comportements sont assumés : ils sont mentionnés au cours des entretiens que j’ai réalisés mais également dans les comptes rendus des comités de pilotage de l’expérimentation.

30Ces interventions lors de l’orientation ont des effets sur les dispositifs d’accompagnement et leurs évaluations, signe supplémentaire de la confusion entre les deux. Dès décembre 2006, avant même que la convention régissant les relations entre les différentes parties impliquées dans l’évaluation ne soit finalisée, les évaluateurs adressent un courrier [23] aux directeurs généraux de l’anpe et de l’Unédic pour les alerter sur la nécessité de respecter le protocole élaboré pour affecter les demandeurs d’emploi dans les différents échantillons. Le non-respect du protocole perdure : des solutions sont toujours recherchées au cours du comité de pilotage technique de septembre 2007 pour régler les « problèmes de contamination détectés (envoi vers les opp de demandeurs d’emploi assignés aux parcours classique ou cve) » [24]. En dépit des entorses au protocole de constitution des échantillons, l’évaluation se poursuit. Les commanditaires ne mettent pas en cause la qualité de l’évaluation produite alors même qu’ils sont à l’initiative de ces interventions destinées à défendre leurs institutions respectives. Les acteurs qui mettent en œuvre les dispositifs d’accompagnement sont également ceux qui sont impliqués dans la mise en œuvre de l’évaluation randomisée et ceux dont le travail fait l’objet de l’évaluation. Alors que la méthode repose sur l’évaluation à comportements inchangés, les acteurs au contraire adaptent leurs comportements à l’existence de cette évaluation et à leur positionnement vis-à-vis de celle-ci. Attendre un comportement inchangé est d’autant plus illusoire que la méthode exacerbe les concurrences entre institutions en organisant l’affrontement entre programmes. Cette caractéristique n’est pas propre à l’évaluation étudiée ici. Dans ce cas, si les acteurs interviennent pour garder le contrôle sur l’évaluation, ils ne s’attaquent pas frontalement à la méthode : ils ne formulent publiquement aucune critique argumentée et ne cherchent pas ouvertement à interrompre l’évaluation.

La non-réalisation de « l’enquête coût » : les commanditaires gardent le contrôle

31La tension entre la volonté des commanditaires de disposer d’une évaluation qui tirerait sa légitimité de son objectivité et leur volonté d’en garder la maitrise se manifeste également à travers leur renoncement à évaluer les rapports coûts/bénéfices des différents accompagnements.

32Au cours de l’évaluation, la direction générale de l’Unédic refuse de transmettre les données nécessaires pour ces calculs. Dès la première réunion du comité de pilotage, le 26 janvier 2007, le président demande les informations requises à l’anpe et à l’Unédic. Lors du comité de pilotage technique du 30 janvier 2008, ces demandes sont renouvelées à l’Unédic [25]. À ce stade, les divergences portent sur le fait de savoir si la réalisation d’une telle enquête fait ou pas partie des engagements pris au moment de l’élaboration de l’évaluation.

33

« M.—— [président du comité de pilotage], le crest/eep et la dares demandent à l’Unédic de transmettre aux chercheurs du crest/eep les données relatives à l’indemnisation perçue par chaque demandeur d’emploi passé par opp, afin que l’équipe soit en mesure de calculer les bilans nets en termes de versement d’allocations chômage. L’Unédic précise que cette transmission n’est pas prévue et que, si elle devait se faire, il faudrait probablement rédiger un avenant à la convention conclue entre l’Unédic et l’eep. M.—— [président du comité de pilotage], le crest/eep et la dares contestent cette position en se référant aux termes de la convention signée entre l’anpe, l’Unédic et le crest/eep le 14 février 2007. » (Compte rendu du comité de pilotage technique du 30 janvier 2008).

34 Dans le rapport présentant les résultats intermédiaires de l’évaluation aléatoire, l’impossibilité d’accéder aux données du Fichier national des allocataires de l’Unédic permettant de calculer le coût économique (Behaghel et al., 2008, p. 15) est déplorée et présentée comme provisoire. Par la suite, la direction de l’Unédic continue à refuser de transmettre les données et le travail n’est pas réalisé dans le cadre de cette évaluation. Le directeur adjoint de la Direction des études et statistiques (des) de l’Unédic justifie a posteriori ce refus de son institution de transmettre les données par la crainte d’un résultat qui démontrerait qu’il n’y a pas de gain financier.

35

des Unédic : « Si on fait une évaluation des coûts, on la fait correctement et pas partiellement. Il n’y a rien qui serait plus désastreux... Si vous faites les travaux sur un an, un an et demi et que vous ne gagnez rien. Bon. Ou vous perdez de l’argent. Une fois que vous avez un chiffre qui part comme ça dans la nature, c’est fini. Ça va être mal interprété. [...] La position était de dire : “S’il faut évaluer quelque chose en termes de coût/bénéfice, il faut attendre.” » (Entretien avec le directeur adjoint de la Direction études et statistiques de l’Unédic, juillet 2010).

36Ses propos apportent deux informations. D’une part, bien que l’évaluation n’ait pas été réalisée, il est convaincu de l’absence de gain financier lié à ce marché. Alors que l’externalisation visait la réalisation d’économies sur l’indemnisation, ces économies ne seraient selon lui pas possibles à court terme. Il pointe le risque pour l’Unédic de l’interprétation qui aurait été faite de ces chiffres. Puisque ces résultats d’évaluation sont anticipés comme ne pouvant pas être mobilisés pour défendre le recours au privé, il est préférable de ne pas les produire. D’autre part, ses propos montrent, une fois de plus, le caractère construit d’un résultat jugé fiable. Il présente les résultats en matière de coût portant sur une période jugée courte (un an ou un an et demi), non pas comme faux mais comme non corrects parce qu’au cours de cette période de lancement les prestataires privés n’auraient pas pu maximiser leurs résultats, ni minimiser leur coût.

37L’enquête coût devait également porter sur l’accompagnement réalisé au sein de l’opérateur public. Selon le président du comité de pilotage de l’évaluation, la stratégie de la direction générale de l’anpe a été un peu différente pour un résultat identique : elle a certes transmis des données, mais elles sont jugées non fiables par les évaluateurs [26]. Pour les deux institutions, il explique cette non-réalisation par les difficultés liées à la conduite générale de l’évaluation.

38Que ce soit au moment de la construction de l’objet de l’évaluation ou sur cette enquête coût, les commanditaires adoptent une même position vis-à-vis du pouvoir de légitimation du chiffre. Ils partagent la volonté de ne voir produits que des chiffres mobilisables pour défendre les positions de leurs institutions d’appartenance – ce qui les conduit à attendre des chiffres différents – parce qu’ils sont convaincus que ces chiffres permettraient de renforcer leurs positions respectives. Cependant, cette autorité de légitimation n’a finalement pas d’autonomie puisqu’ils peuvent garder la main sur l’évaluation et empêcher la production de certains chiffres. De plus, ils ont la conviction que les chiffres, une fois produits, pourraient avoir une forme d’autonomie et devenir incontestables, d’où la nécessité de les contrôler en amont.

39Bien que l’évaluation soit réalisée par des prestataires extérieurs, les commanditaires gardent le contrôle sur le dispositif et interviennent dans son déroulement, à rebours de l’idée que l’évaluation serait une simple mesure neutre de la réalité. L’évaluation randomisée, parce qu’elle organise la concurrence, avive les tensions existantes et donne lieu à des interventions des agents et commanditaires qui sont autant de modifications de la réalité que l’évaluation est supposée enregistrer. La tension identifiée au moment de l’élaboration de l’évaluation perdure et se renforce : d’un côté, le chiffre dispose d’un pouvoir légitimant qui provient de ce qu’il est paré des vertus de l’objectivité et, d’un autre, il y a un enjeu à le contrôler (et donc à mettre en cause sa neutralité) justement en raison de son prétendu pouvoir d’orienter l’action publique.

Publier et mobiliser l’évaluation : les ressorts de la légitimation de et par l’évaluation chiffrée

40Dans cette dernière partie, nous analysons les rapports des différents acteurs à ces résultats (les contestent-ils ? les jugent-ils intéressants ? fiables ? objectifs ?) et la manière dont ils les mobilisent ou pas. Il s’agit d’interroger un double processus de légitimation : la légitimation des résultats (sont-ils ou pas jugés fiables ?) et l’instrumentalisation de ces résultats comme moyen de légitimation de décisions d’action publique. Cette phase, pour l’évaluation opp/cve, a ceci de spécifique qu’elle se déroule dans une période où le service public de l’emploi français connait des bouleversements institutionnels majeurs.

Des commanditaires qui refusent de légitimer l’évaluation en la publiant

41Les premiers résultats sont publiés en juin 2008 dans un rapport intermédiaire composé des monographies, des résultats intermédiaires de l’évaluation randomisée et des premiers résultats de l’enquête statistique. Concernant l’évaluation randomisée, le rapport conclut à des effets positifs de l’accompagnement renforcé par l’opérateur public et à l’impossibilité d’identifier un impact positif statistiquement significatif pour l’accompagnement externalisé par l’Unédic au privé [27].

42Suite à cette publication, le Bureau de l’Unédic [28] du 24 juin 2008 rejette les résultats de l’évaluation et décide de suspendre sa participation aux comités de pilotage [29]. Les membres du Bureau de l’Unédic étaient en attente de données chiffrées pour appuyer le projet de développement de l’externalisation mais, lorsque celles produites ne correspondent pas à celles attendues, ce n’est pas l’externalisation de l’accompagnement qui est mise en cause mais l’évaluation. L’Unédic rejette en bloc l’évaluation et conserve cette position lors des résultats finaux. La position défendue publiquement par l’Unédic consiste à refuser les résultats en arguant de leur défaut de fiabilité mais sans argumenter sur le plan méthodologique.

43Plus largement, lorsque les résultats finaux sont disponibles, ils ne sont publiés « sous le timbre ni de l’Unédic, ni de la dares, ni de Pôle emploi » [30]. Le président du comité de pilotage déplore d’autant plus cette situation qu’il juge cette évaluation exemplaire en raison de la pluralité des méthodologies mobilisées, de la conduite par les différentes institutions impliquées et par la réalisation d’une évaluation randomisée [31] . Sans contester de manière argumentée les résultats, les directions des institutions commanditaires refusent de les reconnaitre comme légitimes en les publiant en leur nom parce qu’elles n’ont pas politiquement intérêt à le faire (voir infra). Ceci confirme qu’il n’y a pas des résultats chiffrés légitimes mais des commanditaires qui, en reconnaissant ces résultats, contribuent ou pas à leur légitimation. Ni le président du comité de pilotage, ni les économètres, ni les différents professionnels impliqués dans la réalisation de l’évaluation n’interviennent pour réagir à cette mise en cause du travail effectué. Cela révèle la fonction de prestataires dans laquelle ils sont confinés, alors qu’ils aiment à présenter l’évaluation randomisée comme une coproduction des évaluateurs et commanditaires [32].

Une mobilisation partielle et partiale des résultats

44Situer la publication de ces résultats dans la nouvelle architecture institutionnelle du service public de l’emploi permet de comprendre que cette (non-) reconnaissance des résultats s’explique par le fait qu’ils ne pouvaient pas être mobilisés pour légitimer des décisions qui étaient de plus déjà prises.

45Si les différences de temporalités entre agenda de l’évaluation et agenda politique sont des situations classiques pour l’évaluation en général comme pour l’évaluation randomisée (Labrousse et Zamora, 2013), la disponibilité des résultats pour l’expérimentation opp/cve intervient dans un contexte spécifique puisque l’architecture institutionnelle du service public de l’emploi est profondément réformée par la loi du 13 février 2008 « relative à la réforme de l’organisation du service public de l’emploi ». Maintes fois écartée, la fusion des services d’indemnisation (Assédic) et du placement (anpe) est effective le 2 janvier 2009 lorsque les premières agences Pôle emploi ouvrent leur porte. Cette réforme tranche une grande partie des conflits sous-jacents à l’externalisation de l’accompagnement et du placement. Pôle emploi – qui regroupe les personnels de l’anpe et des Assédic – concentre l’ensemble des prérogatives détenues auparavant par ces deux institutions, supprimant ainsi les difficultés de coordination interinstitutionnelle. Cette loi modifie également l’équilibre des pouvoirs entre acteurs : les interventions du service public de l’emploi sont reprises en main par les acteurs publics au détriment de l’institution paritaire qui non seulement voit ses espoirs de prendre la main sur l’ensemble du parcours des demandeurs d’emploi indemnisés anéantis mais perd toutes ses prérogatives en matière d’accompagnement (Vivès, 2016). Dans ce nouvel environnement institutionnel, l’intérêt des acteurs pour les résultats de l’évaluation a fortement décru.

46Le rapport final de l’évaluation est rendu public par le comité de pilotage de l’évaluation le 5 octobre 2009, alors qu’un nouveau marché de prestations d’accompagnement à finalité de placement a été lancé six mois plus tôt [33], notifié au mois d’août et effectif à l’automne avec le démarrage des premiers accompagnements de demandeurs d’emploi. Si les résultats qualitatifs sont disponibles depuis juin 2008, les résultats des enquêtes statistique et randomisée arrivent, eux, après les décisions relatives au nouveau marché. Ils passent d’ailleurs relativement inaperçus. L’un des économètres qui a contribué à l’évaluation randomisée nous raconte qu’au mois de juin 2008 il était constamment sollicité par des journalistes sur ces résultats alors que la seule information diffusable était qu’ils seraient disponibles en septembre. Lorsque les résultats sont disponibles, ils ne suscitent aucun intérêt [34].

47La décision de lancer un nouveau marché de plus grande ampleur est donc prise indépendamment des résultats de l’évaluation randomisée puisqu’elle intervient avant qu’ils ne soient disponibles. Au moment de la publication des résultats, la direction de Pôle emploi présente pourtant le nouveau marché comme découlant de l’évaluation. Elle cherche ainsi à masquer le fait que la décision sur l’avenir de l’externalisation du placement au privé a été prise indépendamment de l’évaluation. Ceci est d’autant plus important que l’objectif de l’évaluation était précisément d’alimenter cette décision. Elle vise également à légitimer cette décision qui non seulement poursuit l’externalisation mais l’accroit. Pour ce faire, la direction du nouvel opérateur public fait une lecture partielle des évaluations. Le directeur général de Pôle emploi met en avant l’impact positif de l’accompagnement renforcé sur le retour à l’emploi mesuré par les évaluations : « La première confirmation est qu’un accompagnement renforcé est efficace pour le retour à l’emploi. Et c’est une bonne chose. Ensuite, il faut éviter d’opposer le public et le privé. Aujourd’hui, on a besoin de tous. » [35]. Ces propos ne sont pas erronés, mais ils ne rendent compte que très superficiellement des résultats des évaluations : il n’est pas dit explicitement que l’opérateur public a obtenu de meilleurs résultats que les opérateurs privés alors que ce résultat figure dans le rapport final [36]. L’usage partiel des résultats de l’évaluation permet de les mobiliser pour légitimer une décision déjà prise.

48La directrice de cabinet du directeur général et de la direction de la transformation de Pôle emploi explique le poids du contexte institutionnel dans la mobilisation des résultats.

49

« Au moment où sort l’étude, le contexte est complètement différent du contexte dans lequel l’évaluation a été lancée. [...]. Quand les résultats sortent, on a deux tiers des partenaires sociaux dans le conseil d’administration [de Pôle emploi], donc tout le monde est d’accord pour dire qu’on n’allait pas en faire une pub. Ça sert à quoi sachant qu’on savait qu’on allait lancer un nouveau marché ? On avait besoin de ce marché parce qu’on a un vrai sujet de charge, de capacité. On voit la crise arriver, on n’a plus de sujet de doctrine quasiment. » (Entretien avec la directrice de cabinet du directeur général et de la direction de la transformation de Pôle emploi, décembre 2010).

50 Elle justifie la stratégie d’un usage discret et partiel des résultats. Les représentants de l’opérateur public et les partenaires sociaux qui appartenaient auparavant à des institutions qui s’opposaient doivent désormais faire fonctionner la même institution, alors qu’il existe toujours de nombreux désaccords entre eux, notamment sur la portée de ces évaluations. Si lors du lancement de l’évaluation les résultats étaient attendus pour trancher les oppositions entre les deux institutions, cette attente n’a plus lieu d’être puisque les débats qui les opposent ont été réglés par une décision politique inscrite dans une loi (et non par une décision prise suite à une mesure d’efficacité). La mise en concurrence du public et du privé avec comme enjeu la place respective de l’anpe et de l’institution paritaire qui était au centre des conflits relatifs au recours aux opp n’a plus de pertinence puisque la réforme a dessiné une nouvelle architecture institutionnelle. Les dirigeants de l’opérateur public (majoritairement d’anciens dirigeants de l’anpe) changent de rôle et de position par rapport à la période précédente. Alors qu’avant la fusion ils cherchaient à faire obstacle à la démonstration voulue par l’Unédic de l’efficacité supérieure du privé pour éviter que l’externalisation du placement ne se développe, ils occupent désormais la fonction de commanditaires des opérateurs privés. De plus, ils jouent désormais l’apaisement. Ils sont d’autant plus prompts à le faire qu’ils ne craignent plus rien de ces conflits en raison de leur nouvelle position de force, contrairement aux représentants des organisations syndicales et patronales qui subissent la marginalisation de l’institution paritaire par la création de Pôle emploi (Vivès, 2016).

51 Analyser la publication et la mobilisation des résultats de l’évaluation randomisée en les replaçant dans leur environnement institutionnel éclaire d’abord l’intérêt relatif et contingent de ces résultats chiffrés. S’ils répondaient à des interrogations antérieures à la fusion, ils présentent dans la nouvelle architecture institutionnelle un intérêt moindre voire nul. Par ailleurs, l’usage des résultats de l’évaluation chiffrée dépend de la position de force qui est désormais celle du nouvel opérateur public et de sa nouvelle fonction : il ne s’oppose plus au recours au privé mais le commandite. Les services ministériels (dgefp et dares) sont allés dans le même sens en n’intervenant pas pour donner de la visibilité aux résultats. La mobilisation des résultats illustre le fait que les acteurs commanditaires en position de domination institutionnelle, lorsqu’ils ne reconnaissent pas et n’appuient pas la diffusion des résultats, réduisent le pouvoir des chiffres qui ne disposent pas en eux-mêmes d’un pouvoir de légitimation.

52 À partir de l’étude de l’évaluation opp/cve, nous avons interrogé l’objectivité de l’évaluation randomisée et ses effets sur la conduite de l’action publique. À l’origine de l’évaluation opp/cve, il y a la conviction partagée par les acteurs des différentes institutions impliquées que disposer d’une évaluation chiffrée fiable serait de nature à influer sur le devenir de l’externalisation et plus largement sur l’architecture du service public de l’emploi. Nous avons montré que si les acteurs impliqués ont choisi l’évaluation randomisée pour la qualité prétendument supérieure de ses mesures d’impact, son objectivité doit être relativisée. D’une part, l’objet et les contours de l’évaluation sont le fruit de négociations entre des acteurs qui cherchent à imposer leur définition d’une évaluation correcte et fiable qui est elle-même influencée par leur conception de l’organisation souhaitée du service public de l’emploi. D’autre part, cette évaluation transforme la réalité qu’elle est supposée observer de manière neutre. En mettant en forme la concurrence entre institutions, l’évaluation randomisée renforce la conflictualité. Cette situation de tension aboutit à des interventions des acteurs des différentes institutions et occupant différents niveaux hiérarchiques. Certains pour faire échouer le dispositif d’accompagnement, d’autres pour qu’il puisse se poursuivre. Certains pour perturber le déroulement de l’évaluation, d’autres pour qu’elle soit menée à bien. Ces diverses interventions témoignent de la nécessité d’analyser les logiques institutionnelles pour sortir de l’illusion d’un enregistrement neutre de la réalité qui mesurerait les effets sur des comportements individuels d’un dispositif de politique publique en étant dépourvue de biais. C’est la notion même de biais qu’une analyse sociologique des évaluations dans leur contexte institutionnel permet d’interroger. Ces réactions à l’évaluation randomisée prennent des formes spécifiques au cours de cette évaluation mais révèlent une limite générale de la méthode : elle est supposée évaluer des modifications de comportements liées au seul traitement et « toutes choses égales par ailleurs » alors que son existence même modifie les comportements évalués.

53L’étude de la phase de publication et d’usage des résultats invite également à revoir la définition de l’objectivité et sa contribution au pouvoir légitimant du chiffre pour orienter l’action publique. Suite aux bouleversements institutionnels importants connus par le service public de l’emploi, les résultats de l’évaluation ont un intérêt moindre pour les acteurs, ce qui confirme la nécessité d’analyser le contexte institutionnel pour comprendre la signification, la valeur et l’usage des résultats pour les acteurs. Cela souligne également le caractère contingent de l’intérêt des résultats produits par la randomisation. Depuis le lancement de l’évaluation, l’attente à l’égard d’une mesure chiffrée de l’efficacité était très forte et l’importante mobilisation des acteurs pour mener l’évaluation à bien témoigne de leur investissement pour ce résultat. Malgré cet investissement, ils prennent leur distance avec ces résultats pour des raisons politiques, mais ils n’argumentent jamais contre la méthodologie choisie et sa réalisation. L’usage faible et partiel des résultats montre qu’ils n’ont pas de pouvoir d’orientation de l’action publique en eux-mêmes s’ils ne sont pas reconnus et mobilisés par les acteurs et institutions susceptibles d’en user pour orienter l’action publique. Ce pouvoir de légitimation ne provient donc pas d’abord des caractéristiques des données produites mais il est conféré par les institutions commanditaires.

  • Allègre G., 2008, « L’expérimentation sociale des incitations financières à l’emploi : questions méthodologiques et leçons des expériences nord-américaines », Document de travail de l’ofce , 2008-222.
  • Barbier J.-C., Matyjasik N., 2010, « Évaluation des politiques publiques et quantification en France : des relations ambiguës et contradictoires entre disciplines », Revue française de socio-économie, 5, p. 123-140.
  • Behaghel L., Crépon B., Guitard J., Gurgand M., 2008, Évaluation d’impact de l’accompagnement des demandeurs d’emploi par les opérateurs privés de placement et le programme Cap vers l’entreprise, Rapport intermédiaire, 30 juin 2008.
  • Bezès P., 2009, Réinventer l’État. Les réformes de l’administration française (1962-2008), Paris, Presses universitaires de France.
  • Bruno I., 2008, À vos marques®, prêts... cherchez ! La stratégie européenne de Lisbonne, vers un marché de la recherche, Bellecombe-en-Bauges, Éd. du Croquant.
  • Bruno I., Didier E., 2013, Benchmarking. L’État sous pression statistique, Paris, La Découverte.
  • Bruno I., Didier E., Prévieux J. (dir.), 2014, Statactivisme. Comment lutter avec des nombres, Paris, La Découverte.
  • Bureau M.-C., Sarfati F., Simha J., Tuchszirer C., 2013, « L’expérimentation dans l’action publique. Usages, pratiques et jugements des acteurs », Travail et emploi, 135, p. 41-55.
  • Conter B., Cusso R., Dufresne A., 2008, « Ombres et lumières sur l’emploi et les salaires : le rôle des indicateurs statistiques européens » dans R. Cusso (éd.), Le conflit social éludé, Bruxelles, Academia-Bruylant, p. 119-140.
  • Crépon B., 2008a, « L’apport des expérimentations dans l’évaluation de l’impact des dispositifs publics », Informations sociales, 150, p. 56-67.
  • Crépon B., 2008b, « Les expérimentations d’accompagnement menées en France auprès des demandeurs d’emploi » dans dares, « Expérimentations pour les politiques publiques de l’emploi et de la formation », Actes du colloque, Paris, 22 et 23 mai 2008.
  • Cusso R., Gobin C., 2008, « Du discours politique au discours expert : le changement politique mis hors débat ? », Mots. Les langages du politique, 88, p. 5-11.
  • Desrosières A., 2000, La politique des grands nombres. Histoire de la raison statistique, Paris, La Découverte.
  • Desrosières A., 2008, Pour une sociologie historique de la quantification. L’Argument statistique I, Paris, Presses de l’École des Mines.
  • Desrosières A., Kott S., 2005, « Quantifier », Genèses, 58, p. 2-3.
  • Duflo E., 2009, Expérience, science et lutte contre la pauvreté, Paris, Fayard.
  • Fretel A., Touchelay B., Zune M., 2018, « Éditorial. Contrôler les chômeurs : une histoire qui se répète (forte de ses croyances et à l’abri des réalités) », Revue française de socio-économie, 20, p. 9-25.
  • Gomel B., Serverin É., 2011, « Évaluer l’expérimentation sociale », Centre d’études de l’emploi, Document de travail, 143.
  • Gomel B., Serverin É., 2013, « L’expérimentation sociale aléatoire en France en trois questions », Travail et emploi, 135, p. 57-71.
  • Gratadour C., 2009, L’accompagnement des demandeurs d’emploi : de la conception à la mise en œuvre. Complexité des institutions, difficultés d’évaluation, Thèse pour l’obtention du doctorat de sciences économiques, Université Paris 1.
  • Jany-Catrice F., 2012, La performance totale : nouvel esprit du capitalisme ? Villeneuve-d’Ascq, Presses universitaires du Septentrion.
  • Jatteau A., 2013, Les expérimentations aléatoires en économie, Paris, La Découverte.
  • Labrousse A., 2010, « Nouvelle économie du développement et essais cliniques randomisés : une mise en perspective d’un outil de preuve et de gouvernement », Revue de la régulation. Capitalisme, institutions, pouvoirs, [En ligne], 7 | 1er semestre/Spring 2010, mis en ligne le 29 novembre 2010, consulté le 07 février 2019 : http://journals.openedition.org/regulation/7818 ; doi : 10.4000/regulation.7818.
  • Labrousse A., Zamora P., 2013, « Expérimentations de terrain et politiques publiques du travail et de l’emploi. Apports récents et mises en perspective », Travail et emploi, 135, p. 5-13.
  • Lagroye J., Offerlé M. (dir.), 2011, Sociologie de l’institution, Paris, Belin.
  • L’Horty Y., Petit P., 2010, « Évaluation aléatoire et expérimentations sociales », Centre d’études de l’emploi, Document de travail, 135.
  • Monnier É., 1987, Évaluations de l’action des pouvoirs publics : du projet au bilan, Paris, Économica.
  • Okbani N., 2014, « Le rôle de l’évaluation dans l’expérimentation sociale, entre instrumentation et instrumentalisation : le cas de l’évaluation des expérimentations du rsa », Politiques & management public, 31, 1, p. 31-50.
  • Pillon J.-M., Vivès C., 2016, « La création de Pôle emploi : entre spécificités françaises et déclinaisons de standards internationaux », Revue française des affaires sociales, 1, p. 405-424.
  • Pillon J.-M., Vivès C., 2019, « La fusion de l’anpe et des Assédic : créer un nouveau métier sans penser le travail », Politix [à paraitre].
  • Simha J., 2015, Les expérimentations sociales en France : une sociologie de l’évaluation des politiques publiques, Thèse de doctorat, Université Paris Ouest Nanterre La Défense.
  • Vauchez A., 2008, « Le chiffre dans le “gouvernement” de la justice », Revue française d’administration publique, 125, p. 111-120.
  • Vivès C., 2013, L’institutionnalisation du recours aux opérateurs privés de placement au cœur des conflits de régulation du service public de l’emploi (2003-2011), Thèse pour le doctorat de sociologie, Université Paris Ouest Nanterre La Défense.
  • Vivès C., 2016, « Fusionner pour activer les chômeurs ? Conflits institutionnels autour d’un objectif politique consensuel (2001-2009) », Politiques et management public, 33, 3-4, p. 2015-232.

Mots-clés éditeurs : ction publique, ervice public de l’emploi, uantification, I, valuation randomisée, S, A, É, O, Q, nstitution, bjectivité

Date de mise en ligne : 05/04/2019

https://doi.org/10.3917/rfs.601.0071

Notes

  • [1]
    Terme pris au sens large dans la mesure où nous incluons une institution paritaire.
  • [2]
    La fusion est inscrite dans la loi du 13 février 2008 relative à l’organisation du service public de l’emploi. Les premières agences Pôle emploi ouvrent le 2 janvier 2009.
  • [3]
    Il s’agit d’une association administrée par des représentants des organisations syndicales et patronales représentatives. Ces administrateurs, nommés par leurs organisations, s’appuient sur le travail des salariés (les « services ») qui ont des contrats de droit privé.
  • [4]
    Parmi les différents dispositifs : aides à la mobilité, aides à la formation, aides aux employeurs, externalisation du placement à des opérateurs privés.
  • [5]
    À cette date la décision de fusionner l’anpe et les Assédic n’est pas encore prise (voir infra).
  • [6]
    Les monographies sont réalisées par deux cabinets ; l’un prestataire régulier de l’anpe et l’autre de l’Unédic. Cette organisation découle notamment d’engagements contractuels pris par l’Unédic avant l’élaboration du protocole d’évaluation conjoint.
  • [7]
    Cette enquête est réalisée par les services statistiques du ministère du Travail (dares). Elle a pour but de recueillir l’avis des demandeurs d’emploi sur l’accompagnement reçu et de caractériser la qualité de l’emploi retrouvé pour ceux qui en ont retrouvé un.
  • [8]
    Certaines personnes étaient membres des deux comités, notamment celles occupant les fonctions de direction au sein de la Direction des études et statistiques de l’Unédic.
  • [9]
    Elle se déroule concomitamment à deux autres évaluations de recours aux opp qui mobilisent la même méthodologie : l’accompagnement par l’entreprise australienne Ingeus de certains bénéficiaires du rmi dans les Hauts-de-Seine et le programme « Accompagnement des jeunes diplômés » commandité par la dgefp.
  • [10]
    Elle intervient antérieurement aux « expérimentations sociales à la française » (Bureau et al., 2013) qui ont connu un essor important ensuite avec la création d’un Fonds d’expérimentation pour la jeunesse (fej) en 2008 (Simha, 2015).
  • [11]
    L’absence de biais de sélection est impossible. Elle consisterait à comparer la situation d’un même individu au même moment avec ou sans l’effet du dispositif.
  • [12]
    Cette promotion passe par des interventions publiques orales (conférences, séminaires, etc.) et écrites (articles scientifiques, tribunes de presse, etc.).
  • [13]
    Spécialiste de l’évaluation des politiques du marché du travail, il a joué un rôle important dans le développement de la méthode expérimentale en France et participe à l’évaluation opp/cve.
  • [14]
    Le volume de demandeurs d’emploi concerné est similaire, les profils de demandeurs d’emploi éligibles et les caractéristiques de l’accompagnement sont proches, l’objectif est le retour à l’emploi « durable » (en l’occurrence pour six mois ou plus). Surtout, les conditions de travail des agents qui dispensent cet accompagnement sont les plus proches possibles de celles des salariés des opérateurs privés, c’est-à-dire que chaque conseiller accompagne au maximum 60 demandeurs d’emploi, appartient à une équipe dédiée à ce programme et « consacre 100 % de son temps à cette fonction », anpe, direction de l’intermédiation, Présentation à destination des agences locales d’emploi, 2006.
  • [15]
    Notons que, dans cette évaluation, l’échantillon « témoin » habituellement considéré comme « non traité » dans la théorie de l’évaluation randomisée est composé de chômeurs qui reçoivent un accompagnement destiné aux « personnes éloignées de l’emploi » délivré par l’anpe, dit « accompagnement classique » dans le cadre de l’évaluation par comparaison avec les deux programmes d’accompagnement renforcé.
  • [16]
    À titre d’exemple, les demandeurs d’emploi accompagnés par le privé sont tous indemnisés, ce qui n’est pas le cas de ceux orientés vers le dispositif public d’accompagnement renforcé.
  • [17]
    Les quatre échantillons à comparer deux à deux sont donc, premièrement, celui composé des bénéficiaires de l’accompagnement renforcé public, deuxièmement, le groupe de contrôle, troisièmement, celui composé des bénéficiaires de l’accompagnement renforcé privé et, quatrièmement, le groupe de contrôle.
  • [18]
    Si les agents de la dares et de la dgefp continuent à assurer un suivi de l’évaluation – notamment en participant aux comités de pilotage – ils n’interviennent pas directement dans cette phase.
  • [19]
    Cet outil est également surnommé « moulinette » ou « boite à coucou » par les conseillers de l’anpe et les salariés de l’Unédic.
  • [20]
    Cet encadré est réalisé à partir d’informations issues des entretiens, de différentes présentations de l’évaluation à laquelle nous avons assisté, de Luc Behaghel et al. (2008) et de L’accompagnement renforcé des demandeurs d’emploi. L’évaluation des expérimentations, anpe, Unédic, dares, janvier 2008, 1. Voir : https://dares.travail-emploi.gouv.fr/IMG/pdf/Evaluation_OPPCVE_n1.pdf.
  • [21]
    Dans un premier temps, le conseiller évalue le demandeur d’emploi pour identifier sa « distance à l’emploi » et donc le parcours dont il relève. Dans un second temps, si le demandeur est éligible à l’accompagnement renforcé, le conseiller est supposé suivre les préconisations de l’outil d’affectation aléatoire pour l’orienter vers l’accompagnement renforcé public, privé ou l’accompagnement classique de l’anpe.
  • [22]
    Note aux réseaux Assédic et anpe. Conditions d’identification et d’orientation des publics éligibles aux dispositifs d’accompagnement renforcé, Note de cadrage opérationnel, anpe, Unédic, 15 janvier 2007, p. 4.
  • [23]
    Courrier en date du 21 décembre 2006.
  • [24]
    Compte rendu du groupe technique du 13 septembre 2007.
  • [25]
    Les données demandées sont les suivantes : « Indemnisation perçue par chaque demandeur d’emploi passé par opp, coût global de rémunération des opp et coût de l’accompagnement de chaque demandeur d’emploi par l’opp », Compte rendu du comité de pilotage technique du 30 janvier 2008.
  • [26]
    Entretien avec le président du comité de pilotage de l’évaluation opp/cve, janvier 2010. Bien que l’anpe ne dispose pas de comptabilité analytique, il met en avant les blocages politiques et non techniques pour expliquer la non-réalisation de cette enquête.
  • [27]
    Ces résultats font état, pour les taux de sortie à six mois vers l’emploi des indemnisés, pour cve d’une augmentation située dans une fourchette de 3,7 à 13,1 points de pourcentage (avec un degré de confiance de 95 %) et pour les opp d’une plus-value située entre -1,8 et 7,9 points de pourcentage. D’où la conclusion de résultats qui ne permettent pas d’affirmer que l’impact est positif. Les fourchettes de résultats sont larges en raison de marges d’incertitude encore importantes mais amenées à se réduire au fil de l’évaluation (Behaghel et al., 2008, p. iii-iv).
  • [28]
    Il est composé de cinq représentants des organisations syndicales et cinq représentants des organisations patronales représentatives. Certains membres de la direction générale de l’Unédic y assistent.
  • [29]
    Unédic, Procès-verbal du Bureau de l’Unédic du 24 juin 2008.
  • [30]
    Entretien avec le président du comité de pilotage, janvier 2010.
  • [31]
    Entretien avec le président du comité de pilotage, janvier 2010.
  • [32]
    Fonds d’expérimentation pour la jeunesse, Guide méthodologique pour l’évaluation des expérimentations sociales à l’attention des porteurs de projet, voir : https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=2ahUKEwiAt8jzpIvgAhUQlhQKHcnpBLsQFjAAegQIABAC&url=http%3A%2F%2Fwww.experimentation.jeunes.gouv.fr%2FIMG%2Fpdf%2Fguide-pour-l-evaluation-des-experimentations.pdf&usg=AOvVaw0e4E1N4wvxpnwSf4xeMkd1 (téléchargé le 26 janvier 2019).
  • [33]
    Le marché est lancé le 27 mars 2009.
  • [34]
    Entretien avec l’un des évaluateurs ayant réalisé l’évaluation randomisée, octobre 2009.
  • [35]
    Conférence de presse citée dans une dépêche afp du 7 octobre 2009.
  • [36]
    « L’évaluation d’impact montre la plus-value des accompagnements renforcés par rapport à l’accompagnement classique en termes de retour à l’emploi. Un an après leur entrée dans l’expérimentation, le taux de sortie vers l’emploi des demandeurs d’emploi accompagnés par les opp s’est accru de 5,6 points en moyenne. Le taux de sortie vers l’emploi des demandeurs d’emploi indemnisables suivis par les équipes cve s’est, quant à lui, accru de 7,3 points. Il a été constaté que le programme cve avait un effet plus rapide et plus élevé sur le taux de sortie vers l’emploi. En effet, dès le troisième mois, un surcroit de sorties des listes était observable, alors que, pour les opérateurs privés de placement, les effets n’étaient significatifs qu’à partir du sixième mois. », Comité de pilotage de l’évaluation, 2010, « Les expérimentations d’accompagnement renforcé des demandeurs d’emploi conduites par l’Unédic et l’anpe en 2007 », Rapport de synthèse du comité de pilotage, 5 octobre 2009, p. i-iii.

Domaines

Sciences Humaines et Sociales

Sciences, techniques et médecine

Droit et Administration

bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Retrouvez Cairn.info sur

Avec le soutien de

18.97.14.85

Accès institutions

Rechercher

Toutes les institutions