Couverture de REDP_191

Article de revue

Comportement du banquier central en environnement incertain

Pages 119 à 142

Notes

  • [*]
    Les auteurs remercient les deux rapporteurs anonymes de la revue pour les commentaires et leurs suggestions qui ont permis d’améliorer sensiblement le texte. Les vues exprimées dans cet article sont celles des auteurs et ne reflètent pas nécessairement celles de la Banque de France.
  • [**]
    Banque de France et SDFi, Université de Dauphine
  • [***]
    Correspondance : Banque de France, DEMS-SEPS, 31 rue Croix des Petits Champs, 75049 Paris. E-mail : jjean-guillaume. sahuc@ banque-france. fr. Banque de France et Audencia Ecole de Management
  • [1]
    La titrisation et la construction de produits complexes permettent de diluer le risque en le partageant mais cela conduit également à rendre plus opaque l’information sur la situation des différents acteurs dans leurs expositions respectives aux risques.
  • [2]
    En conclusion d’une étude récente, Borin et Zhu [2007] mentionnent : « Over the last three decades the financial landscape has gone through radical structural change. As a result of financial liberalisation and innovation, heavily controlled, segmented and « sleepy » domestic financial systems have given way to a lightly regulated, open and vibrant global financial system... There are reasons to believe that this transformation may also have had an impact on the transmission mechanism of monetary policy ». Ceci va dans le sens de notre remarque.
  • [3]
    Les variables du modèle sont, en général, log-linéarisées autour d’un état stationnaire. Cela pourrait poser des problèmes lorsque l’état stationnaire est sujet à des changements structurels, par commodité, cette hypothèse n’est pas retenue ici.
  • [4]
    On peut citer également les exemples de la zone euro et de la Réserve Fédérale. Les banques centrales nationales et les Fed régionales participent à l’élaboration de la politique monétaire de leur zone sur la base de résultats tirés de modèles non forcément identiques à celui de la BCE ou du Board. Dans l’Eurosystème par exemple, le Working Group on Economic Modellig a inscrit à son cahier des charges de 2008, un examen détaillé des modèles mobilisés dans les différents pays afin d’aboutir, dans la mesure du possible, à un minimum de cohérence d’ensemble des outils d’analyse de la zone.
  • [5]
    Une bulle est définie comme un écart important et persistant du prix d’un actif par rapport à sa valeur d’équilibre.
  • [6]
    Plus précisément, voir la proposition 6.4 page 400.
  • [7]
    Dans les études consacrées à l’analyse de l’incertitude affectant, entre autres, les paramètres, il est d’usage de retenir des paramètres représentant les caractéristiques spécifiques des agents similaires à celles adoptées ici. Dans un papier récent consacré aux effets de l’incertitude sur l’investissement par exemple, Muro [2007] a choisi deux paramètres de préférence : le degré relatif d’aversion pour le risque, et l’élasticité intertemporelle de sub- stitution. Ce choix est assez conforme au nôtre.
  • [8]
    Pour ne pas alourdir la présentation, nous n’avons pas cherché à montrer si l’atténuation est plus forte que celle correspondant au cas classique. De fait, l’atténuation doit être entendue de manière assez large dans ce papier. Ce parti pris n’est cependant pas sans inconvénient. En effet, il ne permet pas de nuancer le degré d’atténuation obtenu.

1. Introduction

1Aujourd’hui, les banquiers centraux sont considérés comme des agents qui doivent répondre aux maux qui affectent l’économie de manière ponctuelle ou structurelle. Les récentes crises (la crise des « subprimes » d’août 2007 et la crise financière et bancaire actuelle) sont de bonnes illustrations du rôle imputé aux banques centrales modernes et de ce que les acteurs économiques ou marchés semblent attendre d’elles. En plus des baisses répétées des taux directeurs, les banques centrales ont ainsi (i) apporté des volumes de refinancements plus importants et sur des durées plus longues, (ii) proposé un élargissement de la gamme des garanties que les établissements doivent fournir en contrepartie des prêts que les banques centrales leur accordent, et enfin (iii) coordonné des actions entre elles pour apporter des liquidités nécessaires dans d’autres devises. Ces mesures exceptionnelles sont censées contribuer à normaliser le fonctionnement des marchés de capitaux et à restaurer la confiance. Cependant, rien ne garantie que les attentes des agents soient cohérentes dans leur ensemble ou stables dans le temps. En effet, l’incompréhension et l’incertitude des causes systémiques d’une crise peuvent se cumuler et multiplier les risques potentiels pour l’économie réelle [1]. Ceci rend alors délicate la position des banques centrales (réaction rapide et appropriée ou le contraire, intervention massive ou progressive, etc.).

2Ayant une conscience plus affirmée de son rôle et de sa place dans l’économie, le banquier central a cherché à acquérir, au cours du temps, une vision plus claire de son environnement à travers la mise en œuvre d’outils d’analyse de plus en plus performants. Ces outils vont de la collecte d’informations à un niveau très fin (enquêtes sur les prix ou l’activité, collecte de données individuelles de bilans bancaires, données de centrale de bilans, etc.) à la construction de modèles relativement sophistiqués. Toutefois, le banquier central tient également compte du fait que son action se déroule dans un cadre incertain et que l’incertitude peut provenir de plusieurs sources : les effets des innovations financières ou plus prosaïquement les « 3D » (désintermédiation, déréglementation, décloisonnement [2]) des années 1980, l’évolution de la productivité et son impact sur les performances économiques, notamment aux États-unis, l’occurrence des crises bancaires et financières et leurs effets sur la stabilité financière, la création de la zone euro et son impact sur les mécanismes de transmission de la politique monétaire, la globalisation financière, etc. De ce fait, une partie importante de la recherche réalisée dans les banques centrales est consacrée à la manière dont les autorités monétaires pourraient mieux intégrer l’incertitude à laquelle elles sont confrontées dans leur processus de décision (Le Bihan et Sahuc [2002], Brock et al., [2003], Walsh [2003], Dennis [2005]). Dans l’une de ses interventions sur le risque et l’incertitude, Alan Greenspan [2004] s’est fait le porte parole de ses pairs en affirmant : « I believe we, at the Fed, to our credit, did gradually come to recognize the structural economic changes that we were living through and accordingly altered our understanding of the key parameters of the economic system and our policy stance. The central banks of other industrialized countries have grappled with many of the same issues. But as we lived through it, there was much uncertainty about the evolving structure of the economy and about the influence of monetary policy. »

3Ainsi, même avec une meilleure compréhension des rouages de l’économie, le banquier central continue de faire face à l’incertitude dans la mise en œuvre de sa politique. En outre, il est fort probable qu’un banquier central ne fonde pas seulement ses décisions sur une théorie ou une doctrine unique dans un environnement en mutation permanente, ou mal connu. De ce fait, il peut être conduit à utiliser des modèles concurrents ou « rivaux » pour fixer sa politique optimale (Becker et al. [1986] ou ne pas croire au vrai modèle et être amené à prendre des décisions de manière discrétionnaire (Frankel et Rockett [1988]). Ceci conduit à préconiser le plus souvent une méthode prudente ou gradualiste, pour la fixation du niveau des instruments, qui met l’accent sur la nécessité de mieux tenir compte des préférences des autres agents ou de l’orientation des marchés financiers et d’une certaine façon aussi, du rôle de la communication.

4La méthode recommandée en présence d’incertitude repose sur deux principes traditionnels : (i) le principe de Theil [1958], dit principe d’équivalent certain, selon lequel en présence d’incertitude, la politique monétaire doit agir de la même façon qu’en univers certain. Autrement dit, les autorités monétaires doivent se comporter comme s’il n’y avait aucun facteur incertain dans leur univers ; (ii) le principe de Brainard [1967] pour lequel l’incertitude sur les paramètres-clés décrivant les mécanismes de transmission de la politique monétaire plaide en faveur d’une approche gradualiste de la politique monétaire, au sens d’une réaction moins vigoureuse ou atténuée aux nouvelles informations que ne le serait une réponse optimale en l’absence de cette incertitude. Ce résultat a été utilisé pour expliquer la politique de « petits-pas » observée en matière de fixation des taux d’intérêt directeurs des banques centrales.

5De nouvelles perspectives relatives à ces principes traditionnels ont été mises en lumière. Par exemple, des règles ou fonctions de réaction robustes aux modifications de la structure des perturbations économiques, ont été proposées. Les notions de prudence et d’agressivité ont été généralisées par l’idée qu’adopter des politiques robustes peut mener les autorités à utiliser un modèle délibérément mal spécifié. Par ailleurs, des approches ad hoc sur lesquelles reposent ces principes traditionnels, on est passé peu à peu à des modèles à fondements micro-économiques dans lesquels les principaux agents cherchent à atteindre le niveau le plus élevé possible de bien-être. L’adoption de ces modèles microfondés conduit selon certaines conditions à la confirmation de la règle classique d’atténuation (principe de Brainard) ou à une atténuation plus forte que celle observée dans le cas classique ou encore à une « anti atténuation » i.e. l’opposé d’une atténuation. Notons qu’il est possible d’introduire, sans difficulté, une source d’incertitude dans les modèles d’équilibre général intertemporel stochastique au niveau des paramètres structurels ou des diverses alternatives de modélisation. De fait, ces modèles sont des outils appropriés à l’analyse de l’incertitude.

6Par ailleurs, dans un environnement incertain et en changement, prendre des décisions n’est pas aisé. Le banquier central moderne doit fonder son comportement sur la confiance qui existe entre elle et les agents privés. En particulier, si le banquier central est un planificateur social bienveillant, il cherchera à optimiser le bien-être social pour atteindre un optimum de Pareto. La fonction objectif des banques centrales, une combinaison linéaire des variances de l’inflation et de l’écart de production, représente cependant dans ce contexte une fonction de perte qui sera minimisée sous contraintes. Cette fonction de perte peut être considérée sous certaines conditions comme une approximation du second ordre du bien-être social. La fonction objectif peut être également une source d’incertitude. Toutefois, l’intégration de l’incertitude dans cette fonction est assez récente dans la littérature (Levin et Williams [2005], Edge et al. [2007] en raison notamment de la multitude des sources d’incertitude et des difficultés liées à son identification. Ceci est l’une des justifications de ce papier dont l’ambition est, entre autres, de mettre en évidence certains résultats disponibles dans un cadre analytique simplifié mais bien établi.

7Nous tentons de décrire les différentes approches permettant d’évaluer la politique monétaire en présence d’incertitude. Une description des sources et des effets de l’incertitude sur les décisions de politique monétaire est réalisée dans la première partie. La seconde partie fournit des éléments d’illustration fondés sur une maquette macroéconomique simplifiée et étalonnée. L’un des enseignements tirés de cette illustration concerne l’importance du choix de la fonction objectif et de l’hypothèse d’incertitude en termes de recommandation de politique monétaire. La dernière partie est consacrée aux principaux enseignements de l’étude ainsi qu’à un bref aperçu de méthodes pratiques permettant tout au moins de réduire les effets de l’incertitude sur la fonction de réaction d’une banque centrale.

2. Les facteurs d’incertitude

8D’une manière générale, un modèle macroéconomique dynamique linéaire peut être écrit sous la forme d’un système d’équations [3] :

equation im1

xt est un vecteur de variables macroéconomiques à la période t, it l’instrument de politique monétaire et et + 1 un vecteur de résidus ou chocs. xt | t est l’anticipation rationnelle (ou encore la meilleure estimation) de xt sachant l’ensemble informationnel It de la banque centrale. A1, A2 et B sont les matrices des paramètres du modèle et C une matrice de normalisation des chocs.

9Les autorités monétaires fondent leurs décisions sur un modèle estimé et sur leur propre évaluation de l’état courant. En notant A?1, A?2, B? et C? les matrices estimées par la banque centrale, x? l’estimateur de l’état courant, t | t et en posant A = A1 + A2 et A? = A?1 + A?2, le modèle de référence peut se mettre ainsi sous la forme :

equation im2

La véritable représentation de l’économie s’écrit alors comme
equation im3

wt + 1 est un vecteur d’erreurs de spécification. La différence entre le modèle de référence du banquier central et la véritable représentation de l’économie est décrite par le terme
equation im4

qui capte ainsi les effets des trois principales sources d’incertitude (informations imparfaites, spécification du modèle, information asymétrique) auquel il fait face :
  1. information imparfaite : le terme A1xt ? xt | t ) apparaît du fait des erreurs d’estimation de l’état courant de l’économie ;
  2. 2.spécification du modèle :{ ( A?A?)x + ( B?B?)i +( C?C?)e } prot | t t t + 1 vient de l’incertitude sur les paramètres du modèle. Ce terme inclut les erreurs d’estimation du banquier central et des erreurs sur l’identification et l’évaluation des chocs. Par exemple, croire qu’une augmentation du prix du pétrole est un choc transitoire alors qu’il est permanent est pris en compte par le terme ( A ? A? ) : traiter ce choc comme affectant seulement l’offre et ignorer ses effets sur la demande, est intégré dans l’analyse via le terme ( C ? C? ) ;
  3. information asymétrique : le terme A? ( xt | t ? x?t |t ) capte les inefficacités dans l’estimation de l’état courant de l’économie. Cela peut provenir des asymétries informationnelles entre les agents privés et le banquier central. En effet, dans le cas où l’information dont disposent les agents privés, Ipt, diffère de It, alors leurs anticipations ne coïncident pas nécessairement avec celles de la banque centrale, Ext | I pt ) ? Ext |It ) (Svensson et Woodford [2004]).

2.1. L’incertitude concernant l’état de l’économie

10Pour conduire leur politique, les banques centrales évaluent à chaque période les états passés, présents ou futurs de l’économie. Ceci leur permet, d’identifier la nature des chocs qui affectent l’économie et de mesurer les risques qui en résultent, notamment pour la stabilité des prix ou la stabilité financière. De ce fait, l’incertitude sur l’état de l’économie est l’un des éléments fondamentaux de la prise de décisions de politique monétaire. Cette incertitude se manifeste à trois niveaux.

Informations imparfaites et erreurs de mesure

11Les informations qui permettent de décrire l’évolution de l’état de l’économie sont souvent imparfaites. Les imperfections affectent aussi bien les variables de la sphère réelle que celles de la sphère financière. En outre, la disponibilité et la qualité des données peuvent varier sensiblement d’une variable à l’autre : la plupart des prix des actifs financiers sont disponibles en temps réel et ne sont, généralement, jamais révisés ; en revanche, les variables de prix des biens et services ou les indicateurs économiques sont connus avec décalage et sont souvent sujets à révisions. Celles-ci peuvent résulter de l’apport de nouvelles informations, de la correction d’erreurs de mesure, d’une modification des méthodes de calcul des indices, etc.

Variables inobservables

12Certains agrégats ne sont disponibles qu’en fréquence trimestrielle ou annuelle. Dans les études réalisées en fréquence mensuelle par exemple, on substitue à ces agrégats des indicateurs mensuels qui en sont des approximations plus ou moins fiables (exemple, le remplacement de la production potentielle par la tendance de l’indice de production de l’industrie). Par ailleurs, on ne dispose pas toujours de séries pour certaines variables-clés (taux d’intérêt d’équilibre, taux de chômage naturel, production potentielle, etc.), considérées de fait comme inobservables. Leurs mesures peuvent être obtenues à l’aide de méthodes d’évaluation plus ou moins robustes. Il en va ainsi pour le PIB potentiel qui peut être évalué avec un bruit (Aoki [2003]), pour le taux d’intérêt réel d’équilibre, pour le taux de change d’équilibre, ou encore pour les diverses mesures de l’excès de liquidité.

13A priori, l’incertitude affectant les mesures de variables inobservables est plus importante que celle liée à l’imperfection des informations. Un effet d’apprentissage peut notamment permettre de corriger une imperfection des données ; en outre, sous certaines conditions, on peut obtenir une évaluation de l’imperfection et la corriger à l’aide de modèles annexes. En revanche, les mesures des variables inobservables peuvent être entachées d’une double incertitude : celle concernant leurs approximations par des données observables et, parfois de façon importante, celle liée aux méthodes statistiques ou économétriques employées pour les évaluer.

Identification des chocs

14Pour formuler un diagnostic sur l’état de l’économie, notamment à très court terme, les banquiers centraux examinent des indicateurs publiés à des fréquences plus hautes que trimestrielles. Ces indicateurs permettent, entre autres, d’identifier la nature et les propriétés des chocs affectant l’économie. Ceux-ci peuvent être transitoires ou permanents, d’origine intérieure ou extérieure. Ces caractéristiques sont à leur tour susceptibles d’avoir une incidence plus ou moins marquée sur l’évaluation de l’état de l’économie et sur la réaction des banques centrales. Par ailleurs, certains chocs (variations brutales de cours de matières premières, événements géopolitiques majeurs et non anticipés, etc.) sont directement observés, d’autres (chocs technologiques, etc.) sont plus difficiles à évaluer. Ceci peut accroître les incertitudes entourant l’élaboration de la politique économique et/ou monétaire.

2.2. L’incertitude relative à la structure de l’économie

15L’incertitude peut également être liée au degré de connaissance de la structure et du fonctionnement de l’économie. A cet égard, la compréhension du mode de propagation des chocs et du mécanisme de transmission de la politique monétaire devrait permettre à la banque centrale de prendre des décisions contrecarrant d’éventuelles menaces pesant, notamment, sur la stabilité des prix.

Incertitude liée à la spécification du modèle

16Plusieurs sources d’incertitude relatives aux modèles (les plus simples étant le choix inapproprié de l’hypothèse d’indépendance et d’équidistribution des aléas ou l’acceptation de l’hypothèse d’autocorrélation des résidus ; les plus complexes vont d’une erreur de spécification allant du rejet à tort des modèles à changement de régimes par exemple aux variations au cours du temps de l’appréciation du banquier central concernant l’incertitude ou les autres agents en passant par l’arbitrage entre les modèles backward et forward-looking micro fondés ou non) ont été étudiées récemment (Svensson et Williams [2005]). Ainsi, le choix des modèles expliquant l’évolution d’une économie peut être une source d’incertitude (Levin et Williams [2003], Levin et al. [2005]). En effet, il est possible de mobiliser plusieurs modèles (Becker et al. [1986]) se distinguant soit par leurs hypothèses soit par leurs méthodes d’estimation ou encore par les niveaux de désagrégation de l’économie (modèles multisectoriels versus modèle à un secteur, etc.). On peut citer comme exemple celui des modèles développés au cours des années récentes : les modèles backward-looking sans fondement microéconomique (Rudebusch et Svensson [2002]), les modèles forward-looking sans fondement microéconomique (Fuhrer et Moore [1995]) et les modèles forward- looking avec fondements microéconomiques (Rotemberg et Woodford [1997]). Ces trois types de modèles peuvent être mobilisés pour l’analyse d’un même phénomène mais ils ne conduiront pas forcément au même résultat. Chacun de ces modèles peut alors être bien adapté à la résolution d’un problème particulier mais pas à celle de l’ensemble de ceux auxquels le banquier central fait face [4]. En conséquence, il paraît difficile qu’une banque centrale privilégie par exemple, une représentation unique, même micro fondée de l’économie, et fonde ses décisions sur cette seule représentation de l’économie ou de la réalité.

17Par exemple, il est admis que l’inflation est un phénomène monétaire à long terme. Toutefois, il existe, notamment dans l’Eurosystème ou à la Banque d’Angleterre, de multiples approches pour modéliser le processus inflationniste à court et moyen termes. Ici, on peut distinguer deux traditions principales en matière de modélisation : la première assigne un rôle important aux évolutions monétaires comme déterminant de l’inflation future ; la seconde met l’accent sur une approche de type courbe de Phillips où l’excès de demande sur les marchés des biens et du travail constitue le facteur principal des variations de prix et de salaires. En fonction de l’horizon d’analyse, il est ainsi possible de privilégier une approche ou une autre.

18Cependant les banques centrales mettent en place et utilisent de plus en plus des modèles presque entièrement micro-fondés pour les analyses de politique économique et, plus récemment, à des fins de prévisions. C’est le cas des modèles SIGMA (Fed), AINO (Banque de Finlande), NEMO (Banque de Norvège), BEQM (Banque d’Angleterre), etc. La Banque Centrale Européenne a également élaboré un modèle multi-pays (EAGLE) ayant les mêmes sous-jacents théoriques que les modèles précédents.

Incertitude liée aux paramètres

19Même si on pouvait choisir de manière sûre un modèle, une incertitude concernant l’intensité des liaisons au sein de ce modèle spécifique subsisterait. Ainsi, l’incertitude affectant les paramètres agit non seulement sur les dynamiques du modèle à travers les paramètres structurels mais également sur les valeurs de certaines variables d’intérêt non observées, dérivées du modèle (taux naturels du chômage et d’intérêt, production potentielle, etc., cf. Edge et al. [2007]). Cette forme d’incertitude peut se manifester dans l’estimation des paramètres des différentes équations, notamment celles des relations structurelles (Brainard [1967], Söderström [2002], Levin et Williams [2003], Dennis [2005], Walsh [2005], Kimura et Kurozumi [2006]). En effet, les paramètres sont estimés avec une marge d’erreur provenant de l’imperfection des données et/ou de l’usage de techniques économétriques non totalement appropriés, etc.

20Par ailleurs, les équations définissant les modèles empiriques sont, en général, estimées séparément sans tenir compte complètement des interdépendances des décisions des agents. Comme l’a montré Lucas [1976], certains exercices réalisés avec de tels outils (prévisions, etc.) ne sont pas valides puisque la structure des équations du modèle peut être affectée par une modification des variables explicatives. Or, pour ces maquettes, les économistes font l’hypothèse forte d’une stabilité des relations, c’est-à-dire que les comportements des agents économiques ne changent pas suite à une modification de la conjoncture.

21En outre, même si les paramètres étaient estimés avec précision sur une période donnée, ils pourraient varier au cours du temps, suite à un changement structurel de l’économie par exemple. Le fait de ne pas tenir compte des variations temporelles de ces coefficients peut conduire à des conclusions erronées et à une utilisation inadéquate de ces outils (Rossi [2006]). Toutefois, il existe aujourd’hui des tests robustes permettant de détecter les ruptures et des techniques d’estimation mieux adaptées à celles-ci. En revanche, la gestion au jour le jour d’un modèle ne permet pas toujours de mettre en œuvre à temps ces techniques et tests.

22L’incertitude relative aux paramètres, en particulier dans les situations où l’on ne dispose pas d’un historique raisonnablement long ou de données fiables, peut être importante. C’est le cas des modèles estimés avec des données relatives à la zone euro. En effet, leurs estimations sont, la plupart du temps, réalisées avec des données couvrant, en partie, une période antérieure à la création de l’Union Économique et Monétaire.

2.3. L’incertitude stratégique

23Une troisième forme d’incertitude, que nous qualifierons de stratégique, a trait à l’interaction entre les autres secteurs (ménages, entreprises, ... ) et la banque centrale. Elle porte notamment sur le rôle des anticipations des banques centrales ou des agents privés qui peuvent influencer les canaux de transmission de la politique monétaire : il peut exister une incertitude sur la réaction des agents ou des marchés financiers aux décisions et déclarations des autorités monétaires. De même, les agents économiques peuvent aussi s’interroger sur les motivations et intentions des banques centrales.

24Dans certains cas, le degré d’incertitude stratégique peut être particulièrement élevé. C’est le cas lorsque plusieurs sources d’incertitude se combinent ou sont amplifiées par des interrogations persistantes concernant la stabilité des liens économiques. Ceci peut déboucher sur une incertitude plus « fondamentale ». Des changements institutionnels, par exemple, peuvent avoir une telle incidence sur les données et entraîner une discontinuité dans leur contenu informatif. Notons que c’est au cours des périodes de mutations institutionnelles que le problème de l’obtention d’informations se pose avec le plus d’acuité pour les banques centrales. En effet, les changements de structure peuvent être associés à des anticipations, qui à leur tour peuvent évoluer de façon erratique. Cependant, même en l’absence de profonds changements institutionnels, il n’est pas impossible que les agents économiques aient, par périodes, des difficultés à former leurs anticipations et fixer les valeurs des variables à des niveaux raisonnables. Ils perçoivent de fait clairement les règles du jeu. Ces phénomènes apparaissent souvent sur les prix des actifs et atteignent leur paroxysme dans les phases de bulles spéculatives [5].

25La mise en œuvre de la politique monétaire devrait être facilitée par une réduction de cette double forme d’incertitude. Si une banque centrale affiche un comportement stable, ou atteint un niveau « satisfaisant » de crédibilité aux yeux du public, il y aura de fortes chances que les marchés financiers, par exemple, réagissent de manière appropriée à ses décisions. Une définition claire de l’objectif principal de la politique monétaire, l’annonce d’une stratégie en vue de guider les choix des banquiers centraux et une communication efficace sont des instruments susceptibles de réduire l’incertitude stratégique et d’améliorer la crédibilité de la banque centrale (Cukierman [1992], Blinder [1999]).

26La crédibilité tend ainsi à créer un cercle vertueux : si les agents économiques peuvent s’en remettre à la banque centrale pour maintenir la stabilité des prix à moyen terme, ils seront plus enclins à adopter un comportement stable, davantage axé sur des relations de long terme, propice au maintien de la stabilité des prix. En particulier, en présence de chocs transitoires affectant les prix, si les anticipations d’inflation demeurent ancrées à des niveaux compatibles avec l’objectif monétaire, la politique de la banque centrale sera plus efficace : l’ampleur des variations de taux nécessaires pour maintenir la stabilité des prix devrait ainsi être réduite.

3. Une illustration analytique

27Nous proposons une illustration des différents concepts d’incertitude en nous appuyant sur une représentation réduite de l’économie. L’exercice consiste essentiellement à réaliser des simulations du modèle sous l’hypothèse qu’une incertitude affecte (i) un ou plusieurs paramètres, (ii) la mesure d’une variable, et/ou (iii) la fonction objectif de la banque centrale.

3.1. Une maquette simplifiée de l’économie

Bref aperçu du cadre du modèle

28Pour illustrer les effets de l’incertitude, on propose d’étudier le comportement d’une banque centrale dans le cadre d’un modèle d’équilibre général intertemporel stochastique dans lequel les agents privés fondent leurs comportements sur un programme d’optimisation (maximisation de l’utilité pour les ménages, celle du profit pour les entreprises, minimisation de la fonction de perte de la banque centrale, etc.). On omet volontairement de présenter les programmes détaillés des ménages et des entreprises ici, car ils sont conventionnels (voir Woodford [2003], pour une présentation générale) et n’apportent rien de spécifique à l’illustration proposée ici.

29Le ménage représentatif évalue son utilité à partir d’un bien de consommation, un agrégat de biens intermédiaires différenciés mais produits par une entreprise représentative en concurrence monopolistique. Le ménage choisit sa consommation et son offre de travail afin de maximiser la valeur actualisée de son utilité. ? et ? désignent respectivement l’élasticité de sub- stitution intertemporelle de la consommation et celle du loisir. La log- linéarisation des conditions du premier ordre du programme du ménage permet d’obtenir la courbe IS, reliant l’écart de production (output gap, yt) à sa valeur anticipée d’une part, à l’écart de taux d’intérêt réel à sa valeur d’équilibre, d’autre part :

equation im5

[IS]

30Du côté de l’offre agrégée, les entreprises déterminent leurs prix en compétition monopolistique. La décision de fixation des prix par les entreprises est modélisée à travers des contrats à la Calvo [1983]. A chaque période, chaque entreprise fait face à une probabilité constante ( 1 ? ? ) de pouvoir fixer son prix de manière optimale, la durée moyenne de fixité des prix vaut alors 1/ ( 1 ? ? ). On obtient ainsi la courbe de Phillips qui relie le taux d’inflation ( ?t ) à sa valeur future anticipée et à l’écart de production :

equation im6

[CP]

31? est le facteur d’escompte, ? la part du capital dans la production et ? l’élasticité de la demande par rapport au prix. ? et ? sont fonction des paramètres précédents et sont définis respectivement par ? = ( 1 ? ? ) ( 1 ? ?? )/? et ? = ( ? + ? ?1 )/ ( 1 ? ?). Enfin, ?t représente un choc d’offre.

La fonction de perte

32On suppose que le banquier central est un planificateur bienveillant cherchant à maximiser le bien être social. Dans le cadre de ce modèle, le bien être social est représenté par une fonction quadratique des variables d’intérêt, appelée fonction de perte de la banque centrale ( l ). Plus précisément, cette fonction est une moyenne pondérée des variances de l’inflation et de l’écart de production, l = ? [ Var?t ) + ?Varyt ) ] , avec des poids ? et ? positifs.

33On distingue ici deux cas :

  • dans le premier (cas « ad hoc »), les poids sont choisis de manière discrétionnaire (? = ?? et ? = ??), le banquier central ou l’économiste qui étudie le comportement de ce dernier, est supposé imposer arbitrairement les poids des variances des variables d’intérêt ;
  • le second (cas « endogène ») fait dépendre les poids des paramètres structurels du modèle. En effet, Woodford [2003, chapitre 6]  [6] a montré que la maximisation du bien-être social peut conduire à l’expression précédente de la fonction de perte avec ? = ?/? et ? = ( ? + ??1) ?/?. Dans ce cas, les poids sont fixés en cohérence avec l’environnement du banquier central ou plus précisément avec les préférences des autres agents (ménages, entreprises, ... ).

34Dans cette illustration, le taux d’intérêt nominal ( it ) est l’instrument de la banque centrale.

Résolution du programme de la banque centrale

35La résolution du programme de minimisation de la fonction de perte sous les contraintes définies par les deux courbes représentant l’économie conduit à la détermination de l’instrument en fonction des paramètres structurels du modèle et du choc d’offre. La fonction de réaction optimale qui en résulte est :

equation im7

? dépend des paramètres structurels. On tire également de cette résolution, les expressions de l’écart de production et de l’inflation optimaux :
equation im8

Le coefficient de proportionnalité ( ? ) permet donc de déterminer la fonction de réaction des autorités monétaires : celui correspondant à la fonction optimale est désigné par le terme de coefficient optimal. C’est essentiellement à travers ce dernier que l’effet de l’incertitude est analysé ici.

36Connaissant maintenant les expressions analytiques de yt et ?t, on peut en déduire celles de leurs variances, Varyt ) = ?2 ?2?2? et Var?t ) = [ 1 ? ( 1 + ?? ) ?? ] 2 ? 2?, qui permettent d’écrire les formes analytiques des fonctions de perte ad hoc et endogène qui dépendent notamment des paramètres structurels du modèle

equation im9

:
equation im10

Dans le cas ad hoc, apparaissent les paramètres ??. et? ? fixés par le banquier central (ou l’économiste). Ceux-ci sont remplacés par des combinaisons de paramètres structurels dans le cas endogène.

37Dans cet exercice, l’incertitude est introduite sous deux conditions : (i) l’hypothèse portant sur la forme de la fonction de perte (ad hoc ou endogène) ; (ii) l’hypothèse relative à l’évolution stochastique des paramètres structurels qui sont supposés suivre des distributions caractérisées par leur moyenne et leur écart-type.

38Avec cette représentation simplifiée de l’économie, nous allons étudier :

39

  1. les effets de l’incertitude des paramètres structurels sur la fonction de réaction dans le cas où la fonction de perte est ad hoc ou endogène. Dans le premier cas, l’incertitude peut être considérée comme stratégique dans la mesure où la banque centrale choisit des poids différents de ceux attendus par les autres agents, notamment le secteur privé. Dans le second cas, l’incertitude est relative à la structure de l’économie ;
  2. l’impact d’une erreur de spécification de la fonction de perte sur le bien-être. Il s’agit ici d’évaluer le coût en termes de bien être d’utiliser à tort la fonction de perte ad hoc au lieu de celle qui est cohérente avec les préférences des agents privés ;
  3. les implications d’une erreur de mesure de facteurs d’intérêt (écart de production) dans le cas d’une fonction de perte endogène.

40Pour illustrer le comportement de la banque centrale face à ces différents types d’incertitude, on étalonne le modèle en fréquence trimestrielle. Les paramètres sont fixés à des niveaux admis dans la littérature consacrée aux modèles d’équilibre général intertemporel stochastique. Ceux retenus dans notre modèle (tableau 1) correspondent aux a priori choisis par Smets et Wouters [2003] dans leur modèle étalonné pour la zone euro. Par exemple, la part du capital dans le PIB est fixée à 0,33 ; l’élasticité de la demande par rapport au prix est égal à 10 tel que le taux de marge est égal à 1,1 ; ou encore le degré de rigidité des prix vaut 0,75, de telle sorte que la durée de fixité des prix soit d’un an. L’écart-type du choc est normalisé à un. Enfin, on suppose dans un premier temps que ?? = ??/?? et ?? = ( v? + ???1) ??/??.

41Comme on l’a déjà mentionné, l’incertitude est analysée ici essentiellement via son effet sur le coefficient optimal de la fonction de réaction. Plus précisément, on étudie les variations de ce coefficient en fonction des moments des deux premiers ordres (moyenne p? et écart-type ?p de la loi d’un paramètre p donné), supposés suffisants pour déterminer la distribution d’un paramètre.

Tableau 1.

Étalonnage des paramètres

Tableau 1.
Tableau 1. Étalonnage des paramètres Paramètres fixés ? 0,990 ? 0,330 ?? 10,000 ?? 1,000 ?? 2,000 ?¯ 0,750 ?? 1,000 Paramètres déduits ?? 0,086 v? 1,239 ?? 0,019

Étalonnage des paramètres

3.2. Incertitude sur les paramètres structurels

42Pour simplifier, on étudie d’abord séparément l’effet de chaque paramètre incertain sur le coefficient optimal avant d’examiner le cas de paramètres interdépendants (Walsh [2005], Kimura et Kurozumi [2006]).

43Les paramètres ?, ? et ? retenus pour cet exercice sont ceux associés aux équations décrivant l’économie : ? est le paramètre du taux d’intérêt réel dans la courbe IS ; ? désigne le coefficient de sensibilité de l’inflation à l’output gap, il est défini à un coefficient multiplicatif près ; ? représente l’élasticité de la demande de bien par rapport au prix [7]. Du point de vue de la banque centrale, ce sont les coefficients correspondant aux pentes des courbes IS et de Phillips (? et ?) qui sont les plus pertinents. L’élasticité de la demande au prix apporte également une information nécessaire au fonctionnement du marché des biens et peut intéresser le banquier central surtout si celui-ci est modérément conservateur.

44Le choix d’un cadre simplifié permet d’obtenir dans chaque cas l’expression analytique du coefficient optimal (tableaux 2 et 3). Ces expressions permettent de se faire une idée plus précise sur le sens de variation du coefficient optimal provenant d’une simple dérivée de son expression analytique. Les interprétations des fonctions dérivées ne pouvant se faire qu’en imposant certaines conditions sur l’ensemble des valeurs des paramètres structurels, ce sont les représentations graphiques des coefficients optimaux, tirées de simulations qui sont commentées dans la suite de l’article. On peut noter que même dans un cadre simplifié, l’introduction de l’incertitude sur les paramètres décrivant les préférences des agents peut conduire à des complications excessives. La dérivation analytique (l’expression analytique de la fonction à dériver peut être très complexe voire impossible à obtenir) et, surtout, l’interprétation des résultats peuvent être difficiles à réaliser. C’est l’une des raisons pour laquelle certaines formes d’incertitude (incertitude stratégique par exemple) reste difficile à prendre correctement en compte.

Tableau 2.

Politique optimale avec fonction, de perte « ad hoc »

Tableau 2.
Tableau 2. Politique optimale avec fonction, de perte « ad hoc » Incertitude sur le paramètre Paramètre doeptriémaacltidoen la fonction ? ( 1 + ??? ) ? ? = ( ? 2 ( 1 + 2??? ) + ( ?2 ?2 + ?? ) ( ??2 + ??2 ) ) ? ( 1 + ?? ) ?? ? = ( ??? 2 + ( 1 + ?? ) 2 ( ??2 + ??2 ) ) ? ( 1 + ?? ) ? ? = ( ??? 2 + ( 1 + ?? ) 2 ? 2 ) ? et ? ( 1 + ?? ) ?? ? = ( ??? 2 + ( 1 + ?? ) 2 ( ??2 + ??2 ) )

Politique optimale avec fonction, de perte « ad hoc »

Tableau 3.

Politique optimale avec fonction de perte « endogène »

Tableau 3.
Tableau 3. Politique optimale avec fonction de perte « endogène » Incertitude sur le paramètre Paramètre doeptriémaacltidoen la fonction ? ( 1 + ??? ) ? ? = ( ?? ( 1 + 2??? ) 2 + ?? + ???2 + ( ??? 2 + ? ) ?2? ) ? ? ? = ( ? + ? ( 1 + ?? ) ?? ) ? ?? ? = ( ? + ?? ( 1 + ?? ) ? ) ? et ? ?? ? = ( ? + ?? ( 1 + ?? ) ?? + ( 1 + ?? ) ??, ? )

Politique optimale avec fonction de perte « endogène »

Cas de la fonction de perte ad hoc

45Sous l’hypothèse d’une incertitude sur l’élasticité de substitution intertemporelle de la consommation ( ? ), lorsque l’écart-type augmente, le coefficient optimal a tendance à baisser (graphique 1, panel a). Ainsi, si l’incertitude relative à ? augmente (i.e. si l’écart-type devient plus fort), alors la banque centrale doit adopter une position prudente conforme au principe de Brainard dans son acceptation la plus générale [8]. Il en est de même lorsque la moyenne devient plus grande. La présence de l’incertitude sur la pente de la courbe de Phillips ( ? ) conduit à recommander, tout comme dans le cas précédent une attitude prudente (graphique 1, panel b). En effet, on observe une baisse du coefficient optimal de la fonction de réaction lorsque la variance de ? augmente. C’est donc le principe de Brainard qui s’applique. Toutefois, ni l’écart-type ni la moyenne de l’élasticité de la demande au prix ( ? ) n’affecte le coefficient optimal (graphique 1, panel c). En effet, le choix discrétionnaire des poids dans la fonction ad hoc, conduit mécaniquement à exclure cette élasticité de la liste des paramètres de la fonction de perte ad hoc. Le banquier central, insensible à l’erreur affectant ?, se comporte alors comme si son univers n’était pas entaché d’incertitude.

46Il est possible d’étudier le cas où l’incertitude affecte simultanément des paramètres liés entre eux. Le coefficient optimal peut alors, a priori, dépendre des moyennes et écart-types des différents paramètres ainsi que de leurs covariances. Pour clore cette section, on propose d’examiner l’effet de la dépendance de paramètres incertains sur la règle optimale dans un cas particulier. On retient les paramètres ? et ?. Dans le cas du modèle retenu ici et pour une fonction ad hoc, le coefficient optimal de la fonction de réaction ne dépend ni de la moyenne de ?, ni de sa variance, ni même de la covariance des paramètres ? et ? (graphique 1, panel d). En revanche, il dépend de la moyenne et de l’écart-type de ?.

47La prise en compte de l’hypothèse de dépendance entre les paramètres ? et ? n’altère donc pas les résultats par rapport à ceux concernant l’introduction de l’incertitude sur ? : tout se passe comme si l’incertitude concernait uniquement ?. Compte tenu du fait qu’une incertitude affectant seulement ? n’a pas d’effet sur la politique conduite lorsqu’on retient une fonction ad hoc, l’absence d’effet de la moyenne et de l’écart-type de ce paramètre sur le coefficient optimal, sous l’hypothèse de dépendance de ? et ?, est intuitive. Une éventuelle influence de la covariance aurait pu être détectée mais cela n’a pas été le cas. De fait, dans le cas de la fonction ad hoc, le coefficient optimal est constant par rapport à la covariance des deux paramètres mais baisse seulement lorsque la variance de ? augmente.

Graphique 1.

Paramètre optimal de la fonction de réaction avec fonction de perte « ad hoc »

Graphique 1.
PP anel a.. II nncertit ude sur ? P anel b. I ncertit ude sur ? P anel c. I ncert itude sur ? P anel d. I ncertit ude sur ? et ? Graphique 1. Paramètre optimal de la fonction de réaction avec fonction de perte « ad hoc »

Paramètre optimal de la fonction de réaction avec fonction de perte « ad hoc »

Cas de la fonction de perte endogène

48Si l’élasticité de substitution intertemporelle de la consommation ( ? ) est aléatoire et si l’écart-type augmente, le coefficient optimal se contracte (graphique 2, panel a). Là aussi, le comportement de la banque centrale est guidé par le principe d’atténuation de Brainard. Il en est de même lorsque la moyenne devient plus grande. Sous l’hypothèse d’incertitude sur ?, le choix de la fonction de perte semble donc n’avoir aucune incidence en termes de recommandation générale de politique ; dans les deux cas, c’est le principe de Brainard qui prévaut. En outre, les niveaux de taux d’intérêt obtenus avec l’une ou l’autre fonction de perte ainsi que la déformation du profil du coefficient, sont comparables. La hausse de l’écart-type de ? n’a pas d’effet sur le comportement du banquier central (graphique 2, panel b). C’est le principe d’équivalent certain de Theil [1958] qui prévaut. En revanche, lorsque la moyenne de ce paramètre augmente, le coefficient optimal baisse. La banque centrale devient ainsi plus prudente. Le choix de la fonction de perte a donc des conséquences importantes en termes de recommandation de politique monétaire : une option erronée peut entraîner la mise en œuvre d’une politique non appropriée et surtout coûteuse en termes de bien-être surtout que dans ce cas, les recommandations différent selon l’ordre du moment (principe de Brainard dans le cas du paramètre de position, principe de Theil dans celui du paramètre de dispersion). Enfin, dans le cas d’une incertitude portant sur ?, on n’observe pas non plus d’effet sur le coefficient optimal (graphique 2, panel c). C’est le principe d’équivalent certain qui prévaut une fois de plus. On note cependant un effet prononcé du niveau de ? sur le comportement du banquier central qui devient ainsi nettement plus agressif.

49Lorsque seul ? est incertain (voir ci-dessus), le fait que le coefficient optimal dépende de la moyenne de ? laisse présumer que, sous l’hypothèse de dépendance des deux paramètres (covariance non nulle), on pourrait obtenir une fonction de réaction optimale liée à cette moyenne. Une remarque analogue concernant le paramètre ? peut être faite. Pour vérifier cette intuition, l’étude des simulations porte sur l’évolution du coefficient optimal en fonction de deux statistiques des paramètres (ici variance de ? et covariance ( ?, ? )).

50Trois remarques peuvent être faites en examinant le coefficient optimal ? en fonction des statistiques de ? et ? (graphique 2, panel d) par exemple : (i) ? dépend de la covariance des deux paramètres. Il baisse sensiblement lorsque celle-ci augmente. On retient donc ici le principe de prudence : (ii) en revanche, le coefficient optimal ne dépend pas de la variance de ?. La banque centrale n’a donc pas à se soucier de l’incertitude qui affecte directement ce paramètre. Pour un niveau de covariance donnée, elle devrait adopter le principe d’équivalent certain ; (iii) le coefficient optimal dépend des moyennes des deux paramètres. La conclusion obtenue dans l’analyse séparée des paramètres concernant les moyennes des paramètres, reste donc globalement valable lorsqu’on impose une dépendance entre les paramètres : outre la covariance, seules les moyennes des paramètres ont donc un effet sur le coefficient optimal.

51En conclusion, les effets de l’incertitude sur le comportement de la banque centrale ne sont pas indépendants des paramètres. Selon certains, on peut préconiser une politique prudente, invariante ou agressive. En outre, hormis le cas du paramètre représentant l’élasticité de substitution de la consommation ( ? ) dans lequel le choix de politique monétaire n’est pas influencé par celui de la fonction de perte, retenir l’une ou l’autre fonction conduit à des recommandations différentes. De fait, il semble plutôt judicieux de préserver la cohérence globale du modèle en faisant dépendre les poids de la fonction de perte des paramètres structurels si la banque centrale veut garantir un certain niveau de bien-être social.

3.2. Effets du choix de la fonction de perte

52Pour des raisons d’asymétrie d’information par exemple, on suppose dans cette section que le banquier central ne connaît pas forcément avec précision les préférences des agents privés ou n’accepte pas le vrai modèle (Frankel et Rockett [1988]). De fait, il peut opter pour une fonction de perte qui n’est pas une bonne approximation du bien être social. Ainsi, il pourrait retenir comme fonction de bien être social, la fonction ad hoc plutôt que la fonction endogène. En revanche, les paramètres structurels sont supposés connus avec certitude (fixés à leur moyenne). L’erreur commise affecte les poids de la fonction de perte (?? et? ?) ; en d’autres termes, elle consiste à rejeter les poids cohérents avec les préférences des agents privés présents dans l’économie.

Graphique 2.

Paramètre optimal de la fonction de réaction avec fonction de perte endogène

Graphique 2.
PP anel a. I ncer t itude ssur ? P anel b. I ncer t itude sur ? P anel c. I ncer tit ude sur ? P anel d. I ncer t itude sur ? et ? Graphique 2. Paramètre optimal de la fonction de réaction avec fonction de perte endogène

Paramètre optimal de la fonction de réaction avec fonction de perte endogène

53Dans cet exemple, l’effet de l’incertitude est évalué en comparant les niveaux de perte associés aux différentes valeurs du poids de la variance de l’écart de production, celui correspondant à la variance de l’inflation étant fixé à sa vraie valeur (valeur étalonnée du tableau 1). La fonction de perte ad hoc ( lah ) permet de déterminer une fonction de réaction optimale dite ad hoc (Rah). De même la fonction de perte endogène (lend) conduit à une fonction de réaction optimale (Rend). La variable représentant la perte en bien-être de la banque centrale (perte relative) est définie par la statistique suivante :

equation im16

Si le poids choisi par les autorités monétaires coïncide avec celui de la fonction endogène, la perte en bien-être est égale à 0 sinon elle est positive et plus ou moins forte. La statistique ainsi définie est appelée perte relative. G r aphique 3. P ert e r elat ive en fonct ion de

Graphique 3.

Perte relative en fonction de ?

Graphique 3.
Graphique 3. Perte relative en fonction de ?

Perte relative en fonction de ?

54Dans notre exemple, le poids relatif associé à l’écart de production ( ? ) cohérent avec le modèle est égal à 0,019 (tableau 1) : intuitivement, on s’attend à ce que plus on s’écarte de cette valeur, plus la perte relative s’accroît plus ou moins vite (graphique 3). Toutefois, on ne connaît pas l’ampleur de cette perte. A notre connaissance, une telle évaluation est rarement faite dans la littérature. Pour se faire une idée plus précise du résultat, on évalue la perte relative avec des valeurs de ? comprises entre 0 et 1 : (i), lorsque ? vaut 0,25, la perte relative est de 120 %. En d’autres termes, la perte associée à la fonction de réaction ad hoc vaut plus du double de celle correspondant à la fonction de réaction endogène, (ii), si ? vaut 0,50, cette perte augmente encore (150 %) mais relativement moins vite que ? (on tend progressivement vers une asymptote). Ces remarques sont confirmées pour des valeurs plus élevées de ?. Il est donc très coûteux d’opter pour un poids différent de celui attendu par les agents, i.e. celui cohérent avec le modèle, même si le coût tend à se stabiliser pour les valeurs de ? les plus fortes. En outre, l’exercice a été réalisé sous l’hypothèse selon laquelle les deux fonctions de perte prennent la forme d’une combinaison linéaire des variances de l’écart de production et de l’inflation. Il est fort probable que les pertes relatives s’alourdissent si l’on avait opté pour des formes fonctionnelles différentes ou partiellement comparables (par exemple une fonction de perte ad hoc qui ne dépendrait que de la variance de l’inflation).

3.3. Effet d’une erreur de mesure

55Les effets des erreurs de mesure sur les instruments de politique monétaire sont souvent évoqués dans la littérature. L’objectif poursuivi ici est de faire une évaluation de l’impact des erreurs de mesure à travers l’évolution de la fonction de perte.

56Pour cela, on retient des fonctions de perte ad hoc et/ou endogène (cf. tableau 2) avec l’hypothèse de la présence d’une erreur relative à la mesure de la production potentielle ou de l’écart de production. Pour évaluer l’effet direct de cette erreur, on suppose que l’incertitude apparaît dans le modèle uniquement à travers cette variable. On évalue ensuite la fonction de perte, avec les valeurs les plus traditionnelles du poids relatif de la variance de l’écart de production sous les hypothèses de présence et d’absence d’erreur de mesure (tableau 4).

Tableau 4.

Effet de l’erreur de mesure sur le PIB potentiel

Tableau 4.
Tableau 4. Effet de l’erreur de mesure sur le PIB potentiel Sans erreur de mesure Avec erreur de mesure Fonction de perte endogène 100 100,1 Fonction de perte ad hoc ? = 0,25 100 101,2 Fonction de perte ad hoc ? = 0,5 100 102,1 Fonction de perte ad hoc ? = 1 100 104,2 Source : calculs des auteurs

Effet de l’erreur de mesure sur le PIB potentiel

calculs des auteurs

57L’examen des résultats des simulations montre que l’erreur de mesure a un impact significatif mais relativement modéré sur la perte de la banque centrale : (i) l’effet est marginal dans le cas d’une fonction endogène. Ceci peut être rapproché des résultats traditionnels concernant les erreurs de type additif pour lesquels le principe de Theil est préconisé ; (ii) pour une fonction ad hoc, l’impact est plus important et augmente sensiblement avec le poids relatif de la variance de l’écart de production dans la fonction de perte.

58Même avec cet exercice simplifié (i.e. sans prise en compte d’un effet joint d’une erreur de mesure et d’une incertitude grevant les paramètres structurels par exemple), la présence d’erreur de mesure peut être relativement pénalisante. Dans une étude appliquée à l’économie américaine, Smets [2002] a montré que l’incertitude relative à l’output gap a un effet significatif sur la règle optimale lorsque celle-ci est une règle de type Taylor.

4. Conclusion

59Bien que le cadre analytique utilisé dans cet article soit très simple, ses sous-jacents théoriques correspondent globalement à ceux retenus dans la littérature consacrée au thème du papier. En outre, il permet de tirer plusieurs enseignements. Tout d’abord, l’incertitude affectant les paramètres structurels du modèle a un impact sur les solutions dynamiques de l’économie mais aussi sur les fonctions objectifs des différents agents, en particulier sur celle de la banque centrale. En outre, l’importance de l’effet de l’incertitude dépend du choix de la fonction de perte retenue. Par ailleurs, lorsque l’incertitude se transmet par l’intermédiaire des paramètres structurels, les recommandations de politique monétaire (agressivité, insensibilité à l’incertitude, etc.) sont fortement liées au paramètre étudié. Ainsi, pour certains paramètres, c’est le principe de Brainard (prudence) qui est recommandé ; pour d’autres, c’est le principe de Theil (équivalent certain) qui prévaut. Enfin, en présence d’erreur de mesure, dans le cas d’une fonction de perte endogène, les différences en termes de bien-être sont relativement ténues. En revanche, avec une fonction ad hoc, elles sont plus significatives et de plus en plus prononcées lorsque le poids relatif de la variance de l’écart de production dans la fonction objectif augmente.

60Il apparaît ainsi qu’un choix inapproprié de modèles ou de fonction de réaction peut être lourd de conséquences, en termes de bien-être social. En effet, la perte liée à ce choix peut être importante et pénaliser les différents agents. Il convient alors de se demander dans quelle mesure le banquier central pourrait réduire ou contourner l’effet de ce choix. Le banquier central pourrait adopter une stratégie qui consiste à : (i) évaluer dans un premier temps la perte correspondant à une politique donnée (ce qui revient à évaluer l’espérance conditionnelle de la perte sur l’ensemble des modèles possibles pour une fonction de réaction donnée) ; (ii) dériver ensuite la fonction de réaction optimale de la minimisation de la perte espérée.

61Compte tenu de l’objectif de minimisation de la perte de la banque centrale, cette démarche rationnelle ne pourra être mise en œuvre que si le banquier connaît la distribution de probabilité des différents modèles qui lui permettra, entre autres, d’évaluer la perte espérée. Deux approches sont alors proposées dans la littérature pour contourner cet écueil. D’une part, on peut examiner les performances d’un ensemble de règles de fonction de réaction au sein de modèles macroéconomiques concurrents ou rivaux. Cette approche a, par exemple, été mise en pratique par Levin, Wieland et Williams [1999] qui ont déduit de cet exercice que les règles les plus simples sont celles dont les performances sont les plus probantes face à l’incertitude relative aux modèles. D’autre part, on peut retenir un ensemble plus général de modèles sans définir au préalable une mesure de probabilité sur cet ensemble. Cette méthode, appelée contrôle robuste, consiste à retenir comme politique optimale celle qui minimise la perte maximale. Autrement dit, en lieu et place d’un examen des conséquences de la mise en œuvre d’une politique à l’aide d’un ensemble de modèles, on cherche à se prémunir contre la pire des catastrophes (Hansen et Sargent [2006], Levin et al. [2005]). Il convient cependant de noter que la mise en place du contrôle robuste n’est pas aisée même dans les cas les plus simples. De ce fait, on est encore loin d’une solution opérationnelle, robuste et facile à mettre en place pour réduire de manière significative l’impact des effets de l’incertitude dans la mise en œuvre de la politique monétaire.

Bibliographie

Références bibliographiques

  • AOKI K. [2003], « On the optimal monetary policy response to noisy indicators », Journal of Monetary Economics, 50,501-523.
  • BECKER R. G., DWOLATZKY B., KARAKITSOS E. et RUSTEM B. [1986], « The simultaneous Use of Rival Models in Policy Optimisation », The Economic Journal, 96, 425-448.
  • BLINDER A. [1999], « Central Bank Credibility : Why Do We Care ? How We Buid It ? », Working Paper n° 7161, NBER.
  • BORIO C. et ZHU H. [2007], « Capital Régulation, Risk-taking and Monetary Policy ; A Missing Link in the Transmission Mechanism ? , mimeo, Bank for International Settlements.
  • BRAINARD W. [1967], « Uncertainty and the effectiveness of monetary policy », American Economic Review, 57,411-425.
  • BROCK W., DURLAUF S. et WEST K. [2003], « Policy Evaluation in Uncertain Economic Environment », Document de travail n° 10025, NBER.
  • CALVO G. [1983], « Staggered Prices in a Utility Maximizing Framework », Journal of Monetary Economics, 12,383-398.
  • CUKIERMAN A. [1992], Central Bank Strategy, Credibility, and Independance, MIT Press.
  • DENNIS R. [2005], « Uncertainty and monetary policy », Federal Reserve Board of San Francisco, 2005-33,1-4.
  • EDGE R. M., LAUBACH T., et WILLIAMS J. [2007], « Welfare Maximizing Monetary Policy Under Parameter Uncertainty », mimeo, Board of the Federal Reserve System.
  • FRANKEL J. et ROCKETT K. [1988], « International Macroeconomic Policy Coordination When Policymakers do not Agree on the True Model », American Economic Review, 78,318-340.
  • FUHRER J. et MOORE G. [1995], « Monetary policy trade-offs and the correlation between nominal interest rates and real output », American Economic Review, 85,219-239.
  • GREENSPAN A. [2004], « Risk and uncertainty in monetary policy », Meetings of the American Economic Association, San Diego, California.
  • HANSEN L. et SARGENT T. [2008], « Robustness », Princeton University Press, Princeton.
  • KIMURA T. et KUROZUMI T. [2007], « Optimal monetary policy in a micro-founded model with parameter uncertainty », Journal of Economic Dynamics and Control, 31,399-431.
  • LE BIHAN H. et SAHUC J.-G. [2002], « Règles de politique monétaire en présence d’incertitude : une synthèse », Revue d’Économie Politique, 112,349-386.
  • LEVIN A., WILLIAMS J. et WIELAND V. [1999b], « Robustness of Simple Monetary Policy Rules under Model Uncertainty, John B. Taylor, (ed.), Monetary Policy Rules, NBER and Chicago Press.
  • LEVIN A. et WILLIAMS J. [2003], « Parameter uncertainty and the central bank’s objective function », mimeo.
  • LEVIN A., ONATSKI A., WILLIAMS J. et WILLIAMS N. [2005], « Monetary Policy under Uncertainty in Micro-Founded Macroeconometric Models », NBER Macroeconomic Annual 2005, M. Gertler and K. Rogoff, eds. MIT Press, Cambridge.
  • LUCAS R. [1976], « Econometric Policy Evaluation : A Critique », Carnegie-Rochester Conference Series on Public Policy, 1,19-46.
  • MURO K. [2007], « Individual Preferences and the Effect of Uncertainty on Irreversible Investment », Research in Economics, 61,191-207.
  • ROSSI B. [2006], « Are Exchange Rate Really Random Walk ? Some Evidence Instability », Macroeconomic Dynamics, 10,20-28.
  • ROTEMBERG J. et WOODFORD M. [1997], « An Optimization-based econometric framework for the evaluation of monetary policy », NBER Macroeconomics Annual 1997, B. Bernanke and J. Rotemberg, eds. MIT Press, Cambridge.
  • RUDEBUSCH G. et SVENSSON L. [2002], « Eurosystem monetary targeting : Lessons from U. S. data », European Economic Review, 46,417-442.
  • SMETS F. [2002], « Output gap uncertainty : Does it matter for the Taylor rule ? », Empirical Economics, 27,113-129.
  • SMETS F. et WOUTERS R. [2003], « An Estimated Stochastic Dynamic General Equilibrium Model of the Euro Area », Journal of the European Economic Association, 1,1123-1175.
  • SVENSSON L. E. O. et WOODFORD M. [2004], « Indicator Variables for Optimal Policy under Asymmetric Informations », Journal of Economic Dynamics and Control, 28,661-690.
  • SVENSSON L. E. O. et WILLIAMS N. [2005], « Monetary Policy with Model Uncertainty : Distribution Forecast Targeting », Working Paper n° 11733, NBER.
  • SÖDERSTRÖM U. [2002], « Monetary Policy with Uncertain Parameters. » Scandinavian Journal of Economics 104. 125-145.
  • THEIL H. [1958], Economic forecasts and policy, North-Holland, Amsterdam.
  • WALSH C. [2003], « Implications of a changing economic structure for the strategy of monetary policy », in Monetary Policy and Uncertainty : Adapting to a Changing Economy, Jackson Hole Symposium, Federal Reserve Bank of Kansas City, 297-348.
  • WALSH C. [2005], « Endogenous Objectives and the Evaluation of Targeting Rules for Monetary Policy », Journal of Monetary Economics, 52,889-911.
  • WOODFORD M. [2003], Interest and Prices : Foundations of a Theory of Monetary Policy, Princeton University Press, Princeton.

Mots-clés éditeurs : incertitude, modèle macroéconomique, Politique monétaire

Mise en ligne 01/10/2009

https://doi.org/10.3917/redp.191.0119

Notes

  • [*]
    Les auteurs remercient les deux rapporteurs anonymes de la revue pour les commentaires et leurs suggestions qui ont permis d’améliorer sensiblement le texte. Les vues exprimées dans cet article sont celles des auteurs et ne reflètent pas nécessairement celles de la Banque de France.
  • [**]
    Banque de France et SDFi, Université de Dauphine
  • [***]
    Correspondance : Banque de France, DEMS-SEPS, 31 rue Croix des Petits Champs, 75049 Paris. E-mail : jjean-guillaume. sahuc@ banque-france. fr. Banque de France et Audencia Ecole de Management
  • [1]
    La titrisation et la construction de produits complexes permettent de diluer le risque en le partageant mais cela conduit également à rendre plus opaque l’information sur la situation des différents acteurs dans leurs expositions respectives aux risques.
  • [2]
    En conclusion d’une étude récente, Borin et Zhu [2007] mentionnent : « Over the last three decades the financial landscape has gone through radical structural change. As a result of financial liberalisation and innovation, heavily controlled, segmented and « sleepy » domestic financial systems have given way to a lightly regulated, open and vibrant global financial system... There are reasons to believe that this transformation may also have had an impact on the transmission mechanism of monetary policy ». Ceci va dans le sens de notre remarque.
  • [3]
    Les variables du modèle sont, en général, log-linéarisées autour d’un état stationnaire. Cela pourrait poser des problèmes lorsque l’état stationnaire est sujet à des changements structurels, par commodité, cette hypothèse n’est pas retenue ici.
  • [4]
    On peut citer également les exemples de la zone euro et de la Réserve Fédérale. Les banques centrales nationales et les Fed régionales participent à l’élaboration de la politique monétaire de leur zone sur la base de résultats tirés de modèles non forcément identiques à celui de la BCE ou du Board. Dans l’Eurosystème par exemple, le Working Group on Economic Modellig a inscrit à son cahier des charges de 2008, un examen détaillé des modèles mobilisés dans les différents pays afin d’aboutir, dans la mesure du possible, à un minimum de cohérence d’ensemble des outils d’analyse de la zone.
  • [5]
    Une bulle est définie comme un écart important et persistant du prix d’un actif par rapport à sa valeur d’équilibre.
  • [6]
    Plus précisément, voir la proposition 6.4 page 400.
  • [7]
    Dans les études consacrées à l’analyse de l’incertitude affectant, entre autres, les paramètres, il est d’usage de retenir des paramètres représentant les caractéristiques spécifiques des agents similaires à celles adoptées ici. Dans un papier récent consacré aux effets de l’incertitude sur l’investissement par exemple, Muro [2007] a choisi deux paramètres de préférence : le degré relatif d’aversion pour le risque, et l’élasticité intertemporelle de sub- stitution. Ce choix est assez conforme au nôtre.
  • [8]
    Pour ne pas alourdir la présentation, nous n’avons pas cherché à montrer si l’atténuation est plus forte que celle correspondant au cas classique. De fait, l’atténuation doit être entendue de manière assez large dans ce papier. Ce parti pris n’est cependant pas sans inconvénient. En effet, il ne permet pas de nuancer le degré d’atténuation obtenu.
bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Avec le soutien de

Retrouvez Cairn.info sur

18.97.9.171

Accès institutions

Rechercher

Toutes les institutions