Notes
- (*)Paris-Jourdan Sciences Économiques (PSE), unité mixte CNRS-EHESS-ENPC-ENS, Cepremap et Université Paris 8. E-mail : mmichel. juillard@ ens. fr
- (**)Paris-Jourdan Sciences Économiques (PSE), unité mixte CNRS-EHESS-ENPC-ENS, Université Paris I. E-mail : ttarik. ocaktan@ ens. fr
- (1)En pratique, toutes les variables n’apparaissent pas dans un modèle à chacune des périodes t - 1, t, t + 1. Pour la simplicité de l’exposé, il vaut mieux s’abstraire de cette complication.
- (2)Notons que dans ce cas h(.) contient les fonctions de décision et les fonctions de transition.
- (3)Pour plus de détails consulter le site du projet Dynare sur http :// www. cepremap. cnrs. fr/ dynare/ .
- (4)Les dérivées secondes de F(.) sont arrangées ainsi
1Cet article présente les méthodes de simulation utilisées aujourd’hui pour résoudre les modèles d’équilibre général dynamique et stochastique, pour lesquels, en général, il n’existe pas de solution analytique. Ces modèles sont construits sur des bases microéconomiques qui intègrent des comportements d’optimisation intertemporelle. Les conditions du premier ordre pour résoudre ces problèmes d’optimisation font intervenir des anticipations sur les valeurs futures de variables du modèle. Comme ces modèles font intervenir des chocs aléatoires, ces valeurs futures ne peuvent pas être connue exactement. À cette difficulté de la formation des anticipations correspond une difficulté mathématique : les décisions que les agents prennent aujourd’hui affectent la distribution des variables de demain et cette distribution future influence les décisions d’aujourd’hui. Cette circularité suggère que l’on recherche un point fixe dans un espace des fonctions, c’est-à-dire une règle de décision qui soit telle que le futur qu’elle contribue à engendrer soit cohérent avec celui qui est anticipé lors de la prise de décision. Or l’existence et l’unicité d’une telle règle de décision ne peuvent être garantis que sous certaines conditions relatives aux technologies et préférences inclus dans le modèle.
2Dans un premier temps nous présentons un modèle canonique d’optimisation dynamique qui est au coeur de cette problématique. Le modèle peut être exprimé de manière équivalente sous forme d’un problème de contrôle optimal ou bien sous forme d’équilibre récursif. Le choix concernant cette représentation dépend de la méthode numérique qu’on utilisera pour résoudre le modèle. Ainsi la méthode d’itération sur la fonction valeur et certaines versions de la méthode des projections abordent directement le problème de contrôle optimal. Les autres approches, telles que la méthode des perturbations, cherchent à résoudre les conditions nécessaires d’optimalité du problème.
3Nous passons en revue les méthodes dites globales telles que la méthode d’itération sur la fonction valeur, de projection et de paramétrisation des anticipations (PEA). La méthode d’itération sur la fonction valeur exploite la forme récursive du problème et met en oeuvre une discrétisation de l’espace dans laquelle les variables d’état endogènes sont définies. Il est alors possible, sous certaines conditions de concavité, d’approximer par itérations successives la fonction valeur et par conséquence la fonction de décision. Dans la méthode de projection nous cherchons à résoudre une équation fonctionnelle dont l’inconnue est la fonction de décision. En projetant la règle de décision sur l’espace engendré par une base de fonctions élémentaires (i.e., polynômes), cette méthode approxime ce problème à dimension infinie par un problème à dimension finie. La méthode de paramétrisation de la fonction d’anticipation (PEA), applique la méthode de projection, non plus à la fonction de décision du problème de contrôle optimal, mais à une fonction de formation des anticipations par les agents dans le modèle d’équilibre récursif. En effet, à l’équilibre, les espérances conditionnelles apparaissant dans le modèle sont des fonctions, invariantes dans le temps, des variables d’état. Enfin nous présentons la méthode des perturbations qui est une méthode locale, où l’approximation de la solution se fait au voisinage de l’état stationnaire déterministe du modèle. La linéarisation, très populaire dans cette littérature, est présentée comme un cas particulier de la méthode des perturbations.
4Les méthodes globales ne peuvent être utilisées facilement en pratique que pour les modèles où l’espace d’état est de petite dimension. À l’inverse, la méthode des perturbations permet de simuler des modèles beaucoup plus grands mais au prix d’une précision moindre que celle fournie par les méthodes globales. En général, on considère que l’approximation au premier ordre suffit pour un modèle de cycle qui ne cherche à rendre compte que des variables réelles et monétaires. Pour les modèles avec prix d’actif et plus généralement pour tous ceux qui cherchent à décrire l’attitude face au risque, la propriété d’équivalent certain n’est plus acceptable et l’approximation linéaire devient inappropriée.
5Les modèles d’équilibre général dynamique et stochastique (DSGE) sont construits sur des bases microéconomiques qui intègrent des comportements d’optimisation intertemporelle. Les conditions du premier ordre pour résoudre ces problèmes d’optimisation font intervenir les anticipations de fonctions incluant des valeurs futures de variables du modèle. Par exemple, l’équation d’Euler pour la consommation stipule que les agents fixent leur consommation aujourd’hui en référence à l’espérance d’une fonction incluant leu r consommation demain. Comme ces modèles font intervenir des chocs aléatoires, la valeur future des variables du modèle ne peut pas être connue exactement. On suppose que les agents du modèle forment leurs anticipations de manière rationnelle, c’est-à-dire qu’elles sont compatibles avec les valeurs des espérances conditionnelles qui figurent dans le modèle.
6À la difficulté cognitive de la formation de ces anticipations co rresp ond une difficulté mathématique : les décisions que les agents prennent aujourd’hui affectent la distribution des variables de demain et cette distribution future influence les décisions d’aujourd’hui. Cette circularité suggère que l’on recherche un point fixe dans un espace des fonctions, c’est-à-dire une règle de décision qui soit telle que le futur qu’elle contribue à engendrer soit cohérent avec celui qui est anticipé lors de la prise de décision. Le lecteur devinera sans peine que l’existence d’une fonction de décision unique n’est pas toujours garantie et c’est une question sur laquelle nous reviendrons.
7En général, nous ne disposons pas d’une solution analytique pour les modèles d’équilibre général, ce qui nous oblige à recourir à des méthodes numériques pour les calculer.
Un modèle général
8Les modèles qui sont traités dans cet article possèdent des fondements microéconomiques dans lesquels l’objectif des agents est intertemporel. Pour les ménages, ceci peut se traduire par une utilité intertemporelle, tandis que les entreprises auront comme objectif la maximisation de la valeur actuelle des profits futurs. Par conséquent, le modèle devient un problème de contrôle optimal stochastique.
Un problème de contrôle optimal
9La représentation générale d’un modèle d’équilibre
général dynamique stochastique, exprimé sous
forme d’un problème de contrôle optimal est :
La fonction U(.) représente la fonction de gain, soit l’objectif de l’agent optimisateur en chaque période. Cet objectif dépend de l’état du système, décrit par le vecteur de variables endogènes yt de dimension n, et des décisions prises en chaque période, rassemblées dans le vecteur xt de dimension k. Le coefficient ? représente le taux d’escompte utilisé par l’agent pour actualiser les valeurs futures. Comme les décisions se prennent dans un cadre stochastique où le futur n’est pas encore connu, l’objectif ne peut être que l’espérance des gains futurs. Cette espérance est conditionnelle à l’ensemble d’information disponible au moment de la prise de décision, soit la période 0, dans notre notation.
10L’état de l’économie dans la période suivante, y, t+1 dépend de l’état de l’économie de la période courante, yt, des décisions prises dans cette période, xt et de chocs aléatoires de dimension m qui, par hypothèse, se produisent au début de la période suivante, ? i i d .. . et seront alors connus du t +1 décideur. L’évolution de l’économie est décrite par la fonction g(.).
11Comme les chocs aléatoires futurs ne sont, par
définition, pas connus au moment de la prise de
d écision, il est impossible d e calcu ler
numériquement la trajectoire future de l’économie.
La stratégie possible pour résoudre ce problème
d’optimisation intertemporelle est de trouver une
fonction de décision :
qui décrit comment il faut fixer les variables de contrôle, xt, en fonction de l’état du système de manière à optimiser l’espérance de la valeur actuelle des gains futurs.
12En général, la fonction de décision, h(.), n’a pas d’expression analytique et il faut utiliser une procédure numérique pour en obtenir une représentation approchée. La méthode d’itération sur la fonction valeur, basée sur une discrétisation de l’espace d’état et de l’espace des décisions, fournit une représentation tabulaire de la fonction de décision. C’est la méthode que nous décrivons dans la deuxième section. Les deux sections suivantes présentent les méthodes de projection et de paramétrisation des anticipations, qui sont des méthodes globales : la précision de la solution approchée est optimisée sur tout l’espace d’état du modèle. La cinquième section introduit la méthode des perturbations, qui est une méthode locale qui calcule une solution approchée au voisinage d’un point que l’on peut calculer facilement : par exemple l’équilibre stationnaire du modèle en l’absence de chocs aléatoires (l’équilibre stationnaire déterministe).
Un modèle d’équilibre récursif
13Seule la méthode d’itération sur la fonction valeur et
certaines versions de la méthode des projections
attaquent de front le problème de contrôle optimal.
Les autres approches cherchent à résoudre les
conditions nécessaires du premier ordre pour le
problème. Après un changement dans les notations,
le modèle peut être réécrit sous la forme générale
d’un modèle d’équilibre récursif [1] :
Les équations f(.) représentent les conditions du premier ordre du problème de contrôle optimal et les équations donnant la dynamique des variables d’états. Mais la spécification (2) est beaucoup plus générale que le problème de contrôle optimal (1). Elle peut résulter par exemple d’une spécification de l’économie où le nombre d’agents optimisateurs dépasse l’unité, ou qui inclut des équations d’arbitrage intertemporel. Les méthodes qui permettent de simuler le système d’équations (2) s’appliquent ainsi à un ensemble très vaste de modèles macroéconomiques.
14Ici encore, l’obtention d’une solution réside dans le
calcul d’une fonction, que nous appellerons encore
et avec un abus de langage fonction de décision [2],
qui relie la valeur courante des variables endogènes à
leur valeur passée et à la valeur courante des chocs
y h y t t = ( , )?. Après substitution de yt et y par la
t?1t+1 fonction de décision, on se rend compte que cette
dernière doit satisfaire :
Itération sur la fonction valeur
15
Pour les problèmes d’optimisation simple, le
principe de Bellman permet d’écrire de manière
récursive un problème d’optimisation à horizon
infini (Rust, 1996) :
est équivalent à :
Lorsque les fonctions U(.) et g(.) remplissent certaines conditions de concavité, il est possible d’approcher par itérations successives la fonction valeur V(.) et la fonction de décision :
où A représente l’ensemble des solutions atteignables. La mise en œuvre de cette méthode implique une discrétisation de l’espace dans lequel la variable d’état endogène est définie. En pratique ceci consiste à définir un intervalle de valeurs admissibles pour la variable d’état yt, puis d’y introduire une grille de points équidistants. Plus cette grille sera fine, plus la méthode sera précise, mais aussi plus le temps de calcul d’une simulation sera élevé. En pratique, on n’applique cette méthode que quand le nombre de variables d’états est inférieur ou égal à quatre (ne pas oublier que le vecteur d’état inclut le vecteur des chocs de la même date, qui est observé par l’agent optimisateur).
16L’algorithme peut être décrit de la manière suivante : il faut d’abord choisir un sous espace borné dans l’espace d’état dans lequel on recherchera l’évolution de l’économie. Ce sous espace doit inclure la fermeture convexe de l’état initial de l’économie et de l’état stationnaire du problème déterministe associé.
17L’algorithme de l’itération sur la fonction valeur peut être résumé de la manière suivante (Heer et Maussner, 2005) :
- Choisir le nombre de points n constituant la grille
- Initialiser la fonction valeur V0 (.),
- Calculer une nouvelle fonction valeurVr+1 (.)où r
est l’itération.
-
À l’itération r la fonction valeur vaut V y r ( ).
Fixer y à la première de ses valeurs sur la grille. Fixer
x à une valeur admissible. Calculer EV g y x r [ ( , , )]?,
puis :
- Calculer pour toutes les valeurs y de la grille la fonction valeur de la r +1ème itération V y r +1 ( ).
-
À l’itération r la fonction valeur vaut V y r ( ).
Fixer y à la première de ses valeurs sur la grille. Fixer
x à une valeur admissible. Calculer EV g y x r [ ( , , )]?,
puis :
-
Contrôle de la convergence
toler?, où toler représente le niveau en dessous duquel la variation de la fonction valeur peut être considérée comme étant négligeable. - Si la condition précédente est satisfaite pour plusieurs itérations consécutives on arrête l’algorithme et on déduit la fonction de décision de la rème itération au point y : h y r ( ) sinon on incrémente r de 1 et on retourne à l’étape 3.
18Cet algorithme présente de bonnes propriétés de convergence (Santos et Vigo, 1998). Les performances de cette méthode ont été étudiées notamment en relation avec le modèle de croissance stochastique dans Tauchen (1990) et elle a été comparée à la méthode quadratique linéaire (LQ approximation) dans Christiano (1990) ou encore aux méthodes de solutions décrites dans cet article de Aruoba et alii (2006).
Méthodes de projection
19Une autre approche pour résoudre numériquement le problème de contrôle optimal (1), est la méthode de projection. Nous cherchons à résoudre une équation fonctionnelle F(h) = 0 dont l’inconnue est la fonction de décision h(.). La méthode de projection approxime ce problème à dimension infinie par un problème à dimension finie (Miranda, 1998 ; Judd, 1992,1996).
20L’objectif est de trouver une approximation ( ; )h y ? pour y Y RN ? ? dépendant d’un vecteur de p paramètre ? ? ? ?=( , ,..., ) p, qu’il faut calculer. La 1 2 méthode est composée de trois étapes. Dans la première la fonction de décision h(.) est approximée par une combinaison linéaire d’un nombre fini de fon ction s connu es ? ? ? ?, , ,....,p. Les 1 2 3 combinaisons linéaires des fonctions ? constituent i un espace vectoriel dont ces fonctions sont une base. Dans la méthode spectrale ces fonctions sont non nulles globalement sur l’espace admissible des variables d’état. Dans la méthode à éléments finis (McGrattan, 1999), on partitionne d’abord le domaine admissible en sous-domaines. Chaque fonction ? n’est alors non nulle que sur un i sous-domaine. La seconde méthode permet d’utiliser des polynômes d’ordres réduits sur chacun des sous-domaines, au lieu d’un polynôme d’ordre élevé sur l’ensemble du domaine admissible. Dans la seconde étape la valeur de F h( ) =0est calculée en un nombre fini de points de l’espace des états. On obtient en chacun de ces points une erreur (l’écart de la valeur de F à zéro) qui dépend bien sûr du choix des paramètres ?. Finalement, en utilisant un critère de minimisation d’une fonction de ces erreurs, on obtient par un calcul itératif les valeurs des paramètres ?donnant la meilleure approximation de la fonction de décision.
21L’algorithme de la méthode de projection peut être résumé de la manière suivante (Heer et Maussner, 2005 et McGrattan, 1999) :
- de Y RN ? représentant un espace état borné ainsi que choix d’une famille de fonctions constituée des ?i y( ) avec i =1,2,...
- du paramètre, p, définissant le degré
d’approximation et définition de la fonction de
décision approximée :
- Définition d’une fonction résiduelle R(.) :
où F(.) est une équation fonctionnelle. - Calcul des quantités G i p i (.), ,...,=1 :
après avoir choisi w(.) et g (.). En fonction de ce i dernier choix, on distingue trois méthodes qui sont présentées dans le tableau 1. - Trouver le vecteur ?qui vérifie Gi =0 pour tout i.
22La précision de cette méthode dépend du choix du degré d’approximation, c’est-à-dire du choix de p, ainsi que du choix des fonctions de bases ? (.). Enfin i notons que la méthode de projection s’adapte trivialement au modèle d’équilibre récursif (2).
23Miranda et Helmberger (1988) ont utilisé cette méthode dans le cadre d’un modèle à anticipations rationnelles. McGrattan (1996) présente une application de la méthode de projection à éléments finis dans le cas d’un modèle de croissance stochastique. Collard, Fève et Perraudin (2000) utilisent la méthode de projection pour résoudre et estimer un modèle d’appariement.
méthode de projection
méthode de projection
Paramétrisation de la fonction d’anticipation (PEA)
24La méthode de paramétrisation de la fonction d’anticipation (PEA) (Heer et Maussner, 2005 ; Marcet et Lorenzoni, 1999), applique la méthode de projection du paragraphe précédent, non plus à la fonction de décision du problème de contrôle optimal, mais à une fonction de formation des anticipations par les agents dans le modèle d’équilibre récursif (2). En effet, à l’équilibre, les espérances conditionnelles apparaissant dans le modèle sont des fonctions, invariantes dans le temps, des variables d’état.
25Le modèle (2) peut être réécrit sous la forme :
Cette réécriture du modèle fait apparaître l’espérance conditionnelle dans la fonction (.)f, alors qu’auparavant elle s’appliquait à la fonction f(.). Il est toujours possible de le faire en introduisant des variables auxiliaires si nécessaire. On fera l’hypothèse plus générale dans cette partie que le processus ?t suit une chaîne de Markov d’ordre 1. En ce qui concerne le reste de l’article, on reviendra à l’hypothèse selon laquelle ?t suit un processus i.i.d.. Nous considérons les solutions telles qu’à l’équilibre, l’information sur le passé qui est pertinente pour la prédiction de ?( , )y y t peut être t +1 résumée par le vecteur des variables d’état yt,?. t?1 La fonction d’anticipation conditionnelle est alors donnée par :
L’idée générale de la méthode PEA consiste à remplacer cette fonction d’anticipation conditionnelle dans (6) par l’approximation qu’en donne une fonction flexible ? ? ?( , ; )yt. Cette t?1 fonction dépend des variables d’état (ou éventuellement d’une partie d’entre elles) et d’un vecteur de coefficients ?. Ensuite nous utilisons le modèle, où les anticipations figurant dans l’équation (6) ont été remplacées par leur approximation :
pour générer par simulations stochastiques la trajectoire yt. On peut alors itérer sur la valeur des paramètres pour que la somme des carrés des distances entre les valeurs de ?( , )y y t et de t +1 ? ?( , ; )yt soit aussi faible que possible. Le t?1 succès de la méthode dépend, comme pour les méthodes de projection, d’un choix adéquat de la spécification de la fonction ? et du nombre de paramètres dont elle dépend.
26La première application de cette approche a été faite dans Wright et Williams (1982), et a ensuite été développée dans Miranda (1985) et Miranda et Helmberger (1988). Une variante de cet algorithme a été implantée dans Marcet (1988). Cette méthode est décrite formellement dans Marcet et Marshall (1994) où l’on peut également trouver une liste de différentes applications de la méthode. Une comparaison de cet algorithme avec d’autres alternatives est présentée dans Christiano et Fisher (2000) pour un cas particulier.
Méthode de perturbation
27Le principe de la méthode de perturbation (Judd et Guu, 1997, Gaspar et Judd, 1997; Judd, 1996) est la suivante. On commence par extraire du problème original un problème particulier dont on peut calculer aisément la solution. Il s’agira le plus souvent de l’état stationnaire déterministe du modèle. On approxime ensuite la solution du problème général au voisinage de l’état stationnaire déterministe du modèle.
28Comme de nombreux modèles économiques déterminent des dynamiques très proche d’un mouvement linéaire, cette approximation est souvent suffisante. Ensuite nous effectuons le même développement au second ordre.
29Rappelons que le développement en série de Taylor est une méthode pour approximer une fonction sur son intervalle de définition en utilisant uniquement l’information sur cette fonction disponible en un point spécifique. Judd et Guu (1997) ont proposé une extension permettant de calculer les termes d’un développement de Taylor d’ordre supérieur. D’autres types de développements limités sont envisageables, comme par exemple l’approximation de Padé qui est examinée par Judd et Guu (1997).
30La méthode des perturbations est donc une méthode locale dont la précision diminue lorsque les chocs entraînent le système loin de l’équilibre stationnaire. Son grand avantage est qu’elle permet de simuler aisément des modèles de grande taille : on peut facilement calculer l’approximation à l’ordre 1 d’un modèle de plusieurs centaines de variables et l’approximation à l’ordre 2 d’un modèle d’une centaine de variables d’état.
31La méthode de perturbation, pour le premier et second ordre, est incorporé sous une forme conviviale dans le logiciel Dynare (Collard et Juillard, 2001a). Dynare++ est une application allant au-delà de l’approximation d’ordre 2 [3].
Un modèle général
32Reprenons le système de n équations aux différences
stochastiques décrit dans (2) :
Pour appliquer la méthode des perturbations à la dimension stochastique du modèle, on instrumente les chocs ?t de la manière suivante :
où ?est un facteur d’échelle stochastique, E et ( ) =0 et E e e t t e ( ) '=?. Lorsque ?=0, le modèle est déterministe et pour toute valeur? > 0, le modèle est aléatoire. Le vecteur et représente m chocs auxiliaires. On suppose également :
Les chocs aléatoires sont de moyenne nulle. Ils sont observés au début de la période t, avant que soit fixé yt. Ces chocs ont une matrice de variancecovariance constante au cours du temps et sont non autocorrélés. Dans la méthode des perturbations, il convient de spécifier un ordre des moments des chocs qui soit égal à l’ordre du développement limité que l’on veut utiliser. Comme nous allons décrire des approximations d’ordre 1 et 2, il suffit de spécifier la moyenne et la variance des chocs.
33Le modèle (7) ne contient que des variables avancées
ou retardées d’une période. Pour les approximations
à l’ordre 1, on peut sans difficulté considérer des
modèles avec des valeurs avancées ou retardées de
plus d’une période. On peut, en effet, ramener un
modèle avec des variables avancées ou retardées de
plus d’une période à un modèle avec des variables
avancées ou retardées d’une période seulement en
ajoutant des variables et des équations auxiliaires.
Par exemple, en définissant :
on obtient :
Pour les ordres d’approximation supérieurs à 1, on peut encore utiliser cette procédure pour éliminer les variables retardées de plus d’une période. Il n’en est pas de même avec les variables avancées de plus d’une période intervenant de façon non linéaire dans le modèle. Nous ne développerons pas dans ce papier les méthodes utilisées pour surmonter cette difficulté.
Fonctions solution
34La simulation du modèle (7) passe par le calcul de la
fonction de décision (selon le sens défini dans la
première partie), qui détermine yt en fonction de
l’état passé du système y, des chocs, ?t observés
t?1 en début de période, et du facteur d’échelle
stochastique, ?:
Par récurrence, on obtient, pour la période t +1:
Il est donc possible de réécrire les fonctions f(.) uniquement en fonction de l’état passé du système, des chocs présents et futurs, et du facteur d’échelle stochastique, en substituant les variables yt et yt+1 par leurs expressions ci-dessus :
Le modèle (7) peut alors s’écrire
Équilibre stationnaire déterministe
35L’approximation se calcule au voisinage de
l’équilibre stationnaire déterministe qui est défini
par :
De même, l’approximation des fonctions solution h(.) se fait au voisinage de sa valeur stationnaire déterministe :
Approximation linéaire
36L’approximation à l’ordre 1 de la méthode des perturbations n’est rien d’autre que l’approximation linéaire qui a été très largement utilisée à l’origine pour simuler les modèles de cycles réels (Christiano, 2002 ; King et Watson, 2002).
37La première étape consiste à écrire le développement
de Taylor à l’ordre 1 du modèle (8) autour de
l’équilibre déterministe, en dérivant les
compositions de fonctions :
où F( ) (.) 1 dénote l’approximation à l’ordre 1 de la fonction F(.). On a allégé la notation en utilisant les conventions suivantes : , , 'y y y t t = ? = = + 1 ? ? ? ?. t ? 1 Les matrices jacobiennes sont notées :
Les dérivées de f(.) se calculent à partir de l’énoncé du modèle, celles de h(.) sont inconnues à ce stade et trouver leur valeur fait l’objet de l’analyse.
38En appliquant l’opérateur espérance mathématique à
l’expression figurant dans le second membre de
l’équation (9) nous obtenons :
Nous avons vu dans le paragraphe précédent que f y y y( , , , )0 est nul. D’autre part l’espérance mathématique conditionnelle de f h + ? ?'est également nulle.
39Pour satisfaire l’égalité (10), il faut que tous les trois
termes du second membre de cette expression
s’annulent, soit :
Ces trois conditions vont nous permettre de calculer les trois dérivées de la fonction de décision à l’état stationnaire du modèle : h h y,? et h?. L’équation (11) est une équation polynomiale matricielle qui peut être résolue de différentes manières (voir Anderson et alii, 1996). Parmi celles-ci nous préférons l’approche utilisant la décomposition généralisée de Schur (Klein, 2000 et Sims, 2001). L’équation (11) peut être réécrite :
L’approximation linéaire de la fonction de décision s’écrit y y h y y h h t y t ? = ? + +( ) ? ? ? ?. Cette t ?1 relation, ainsi que les équations (11), (12) et (13), restent valides si ? ? t = =0.
40Alors comme y y y= ? nous avons h y y y = ?,
t ?1 y t et h h y y y y y t = ? +1. L’équation (14) se réécrit :
ou sous forme matricielle :
avec
Lorsque la matrice D est non singulière, l’équation dynamique pour xt est donnée par x D Ex t t+ ? = 1 1. Or en général, D est singulière et il faut dans ce cas utiliser la décomposition généralisée de Schur. Comme nous ne disposons pas de la totalité des valeurs initiales dans le système (15), nous sommes en présence d’une multiplicité de solutions. Or nous cherchons une solution stable unique.
41En utilisant la décomposition généralisée de Schur
(voir encadré), l’équation (15) se réécrit :
En multipliant les deux membres de cette expression à gauche par Q’nous obtenons :
Encadré
D QTZ=
E QSZ=
où T est une matrice triangulaire supérieure avec des éléments non-nuls sur la diagonale, S est une matrice quasi-triangulaire supérieure avec des blocs 1?1 et 2?2 sur la diagonale, Q’Q = I et Z’ Z =I.
Les valeurs propres généralisées du système de matrice D, E, noté ?, sont définies par la condition
?Dx Ex=, pour un vecteur non-nul x
Considérons les éléments diagonaux Tii et Sii tel que pour tout i les deux ne sont pas nuls simultanément. On établit facilement que :
pour Tii ?0
Si D est une matrice singulière, nous aurons Tii =0 pour quelques i. Lorsque Tii =0 nous distinguons les trois cas suivants :
- Sii >0 alors ?=+?
- Sii <0 alors ?=??
- Sii =0 alors ?=C
42Les valeurs propres généralisées ? S T= / sont i ii ii ordonnées de manière à ce que le premier bloc contient les valeurs inférieures ou égales à un et le second bloc contient les valeurs supérieures à un, |? >1. Cette représentation (16) permet ainsi de i séparer les trajectoires stables (bloc supérieur) des trajectoires instables (bloc inférieur) (Klein, 2000 ; Sims, 2001).
43Afin d’exclure les trajectoires explosives, on impose
la condition suivante :
On en déduit :
En d’autres termes, une trajectoire unique stable existe lorsque Z remplit deux conditions : Z doit 2222 être une matrice carrée et elle doit être inversible, donc il doit y avoir autant de variables avancées qu’il y a de valeurs propres supérieures à 1 en module. Si Z a moins de colonnes que de lignes, la dynamique 22 est instable car il y a plus de valeurs propres supérieures à 1 que de variables non-prédéterminées. Si, par contre, Z a plus de colonnes que de lignes, il 22 y a indétermination car il y a moins de valeurs p ropres in férieures à 1 que d e variables non-prédéterminées. Ce sont les conditions énoncées par Blanchard et Kahn (1980) pour l’obtention d’une trajectoire stable unique.
44Une fois qu’on a obtenu le changement marginal de
l’état contemporain dû à une variation de l’état passé
hy, nous pouvons déduire h?, qui donne le
changement marginal de l’état contemporain suite à
une variation d’un choc contemporain, en utilisant la
condition (12) :
d’où
Ensuite h? peut être déduite en utilisant la condition (13) :
d’où :
La fonction de décision est donc indépendante de la variance des chocs futurs. Il est donc possible de remplacer ceux-ci par leur espérance mathématique : l’approximation du premier ordre est caractérisée par la propriété d’équivalent certain.
45En conclusion l’approximation linéaire est donnée
par :
On en déduit les deux premiers moments inconditionnels de yt :
Notons que l’équation (17) pour la détermination de la matrice de variance-covariance de y est une équation de Lyapounov, qui doit être résolue par un algorithme spécialisé.
Approximation du second ordre
46Nous ajoutons maintenant les termes d’ordre 2 à
l’approximation du modèle au voisinage de son état
stationnaire qui était donnée dans l’équation (9)
(Collard et Juillard, 2001b, Schmitt-Grohe et Uribe,
2004 ; Kim et alii, 2004).
47où F représente la dérivée seconde [4] du vecteur de ab fonctions F(.).
48Les espérances des termes en ?'sont nulles, à
l’exception de celle de? ?' '? qui est égale à?2 ?e, où
?e représente un grand vecteur colonne contenant
toutes les colonnes de la matrice de variancecovariance ?e mises bout àbout verticalement. On a
Comme dans le paragraphe précédent, la satisfaction de cette égalité implique la nullité des termes F F F F F F F y y y y e ? ? ? ? +, , , , ( ) ' '?? ? ? ?? ?? ?? ?.
49Les nouvelles inconnues dans le développement du
second ordre sont les dérivées secondes de la
fonction de décision h h h h h h yy y y, , , , , ? ?? ? ?? ??. Nous
rappelons d’abord la formule générale de la dérivée
seconde d’une fonction composée. Soit y = g(s) et
f(y) = f(g(s)), alors
L’expression du terme hyy se déduit de la condition suivante :
En réarrangant les termes on obtient
où B est un terme qui ne comporte pas de dérivées du second ordre de la fonction de décision.
50Après le calcul de hyy nous pouvons calculer hy? et h??
de manière similaire :
hy? et h?? peuvent être déduits des conditions :
La nullité de h? a permis de simplifier l’expression précédente. En conséquent on obtient :
Finalement nous pouvons calculer h?? de la manière suivante :
Les équation (18), (19), (20), (21) et (22) déterminent alors l’approximation du second ordre :
Au second ordre, il n’est plus possible de trouver des express ions exactes p our les momen ts inconditionnels. On peut par contre en donner des expressions approximatives à l’ordre 2 également en ne tenant compte que des termes linéaires et quadratiques dans leur formule de calcul :
Notons que pour la matrice de variance-covariance, la formule est identique à celle obtenue pour l’approximation linéaire.
Développement de la méthode de perturbation
51La méthode de perturbation fournit une expression pour la fonction de décis ion qui est asymptotiquement et localement correcte. Cependant la précision de l’approximation peut se dégrader lorsqu’on s’éloigne de l’état stationnaire déterministe. Différentes solutions ont été proposées afin de remédier à ce problème. Judd (2003), par exemple, propose un changement de variables en fonction desquelles on exprime la solution obtenue du modèle. Fernandez-Villaverde et Rubio-Ramirez (2006) appliquent ce changement de variables au modèle de croissance stochastique et montrent comment une transformation optimale permet d’obtenir une bonne approximation tout en se limitant à une approximation linéaire.
Conclusion
52Les méthodes d’itération sur la fonction valeur et les méthodes globales ne peuvent être utilisées facilement en pratique que pour les modèles où l’espace d’état est de petite dimension. Le lecteur intéressé est invité à consulter Aruoba et alii (2006) pour une comparaison de ces méthodes dans le cas d’un modèle de petite dimension. La méthode des perturbations, au contraire des méthodes globales, permet de simuler des gros modèles au prix d’une précision moindre que celle fournie par les méthodes globales. E n général, o n considère que l’approximation au premier ordre suffit pour un modèle de cycle qui ne cherche à rendre compte que des variables réelles et monétaires. Pour les modèles de prix d’actif et tous ceux qui cherchent à décrire l’attitude face au risque, la propriété d’équivalent certain n’est plus acceptable et l’approximation linéaire devient inappropriée. Si l’on veut utiliser la méthode des perturbations il faut considérer des ordres d’approximation supérieurs à 1. Si l’objectif est d’étudier l’effet de changements de politiques importants, ou plus généralement de modifications structurelles radicale de l’environnement économique, il convient de considérer si ces changements entraînent un déplacement important de l’équilibre stationnaire du système et de s’interroger sur la validité d’une méthode d’approximation locale dans ce cadre.
BIBLIOGRAPHIE
- Anderson E.W., Hansen L.P., McGrattan E. R. et Sargent
- T. J. (1996). “Mechanics of Forming and Estimating Dynamic Linear Economies”. Dans Handbook of Computational Economics. Edité par K.J. Arrow et M.D. Intriligator, pp. 171-252.
- Aruoba S. B., Fernandez-Villaverde J. et Rubio-Ramirez
- J. F. (2006). “Comparing Solution Methods for Dynamic Equilibrium Economies”. Journal of Economic Dynamics & Control, vol. 30, pp. 2477-2508.
- Blanchard O. et Kahn M. (1980). “The Solution of Linear Difference Models under Rational Expectations”. Econometrica, vol. 48, pp. 1305-1313.
- Christiano L.J. (1990). “Linear-Quadratic Approximation and Value-Function Iteration : A Comparison”. Journal of Business & Economic Statistics, vol. 8, pp. 99-113.
- Christiano L.J. (2002). “Solving Dynamic Equilibrium Models by a Method of Undetermined Coefficients”. Computational Economics, vol. 20, pp. 21-55.
- Christiano L.J. et Fisher J.D.M. (2000). “Algorithms for Solving Dynamic Models with Occasionally Binding Constraints”. Journal of Economic Dynamics & Control, vol. 24, pp. 1179-1232.
- Collard F., Feve P., et Perraudin C. (2000). “Solving and Estimating Dynamic Models Under Rational Expectations”. Computational Economics, vol. 15, pp. 201-221.
- Collard F. et Juillard M. (2001a). “Accuracy of Stochastic Perturbation Methods : The Case of Asset Pricing Models”. Journal of Economic Dynamics & Control, vol. 25, pp. 979-999.
- Collard F. et Juillard M. (2001b). “Stochastic Simulations with Dynare. A Practical Guide”, Document de Travail, Cepremap.
- Fernandez-Villaverde J. et Rubio-Ramirez J.F. (2006). “Solving DSGE Models with Perturbation Methods and a Change of Variable”. Journal of Economic Dynamics & Control, vol. 30, pp. 2363-2910.
- Gaspar J. et Judd K.L. (1997). “Solving Large-Scale Rational-Expectations Models”. Macroeconomic Dynamics, vol. 1, pp. 45-75.
- Heer B. et Maussner A. (2005). Dynamic General Equilibrium Modelling : Computational Methods and Applications. Springer Verlag.
- Judd K.L. (1992). “Projection Methods for Solving Aggregate Growth Models”. Journal of Economic Theory, vol. 58, pp. 410-452.
- Judd K.L. (1996). “Approximation, Perturbation, and Projection Methods in Economic Analysis”. In Handbook of Computational Economics. Edité par K.J. Arrow et M.D. Intriligator, pp. 509-585.
- Judd K.L. (2003). “Perturbation Methods with Nonlinear Changes of Variables”. Mimeo, Hoover Institution.
- Judd K.L. et Guu S. (1997). “Asymptotic Methods for Aggregate Growth Models”. Journal of Economic Dynamics & Control, vol. 21, pp. 1025-1042.
- Kim J., Kim S., Schaumburg E. et Sims C.A. (2004). “Calculating and Using Second Order Accurate Solutions of Discrete Time Dynamic Equilibrium Models”. Document de Travail.
- King R.G. et Watson M.W. (2002). “System Reduction and Solution Algorithms for Singular Linear Difference Systems Under Rational Expectations”. Computational Economics, vol. 20, pp. 57-86.
- Klein P. (2000). “Using the Generalized Schur Form to Solve a Multivariate Linear Rational Expectations Model”. Journal of Economic Dynamics & Control, vol. 24, pp. 1405-1423.
- Marcet A. (1988). “Solving Nonlinear Stochastic Models by Parameterizing Expectations”. Document de Travail, Carnegie Mellon University.
- Marcet A. et Lorenzoni G. (1999). Computational Methods for the Study of Dynamic Economies, The Parameterized Expectations Approach : Some Practical Issues, pp. 143-171. Oxford : Oxford University Press.
- Marcet A. et Marshall D.A. (1994). “Solving Nonlinear Rational Expectations M odels by Parameterized Expectations : Convergence to Stationary Solutions”. Discussion Paper-Federal Reserve Bank of Minneapolis, 91.
- McGrattan E. (1996). “Solving the Stochastic Growth Model with a Finite Element Method”. Journal of Economic Dynamics & Control, vol. 20, pp. 19-42.
- McGrattan E. (1999). Computational Methods for the Study of Dynamic Economies, chapter Application of Weighted Residual Methods to Dynamic Economic Models, pages 114–142. Oxford : Oxford University Press.
- Miranda M.J. (1985). “Analysis of Rational Expectations Models for Storable Commodities under Government Regulation”. University of Wisconsin-Madison. Doctoral Dissertation.
- Miranda M.J. (1998). “Numerical Strategies for Solving the Nonlinear Rational Expectations Commodity Market Model”. Computational Economics, vol. 11, pp. 71-87.
- Miranda M.J. et Helmberger P.G. (1988). “The Effects of Commodity Price Stabilization Programs”. American Economic Review, vol. 78, pp. 46-58.
- Rust J. (1996). “Numerical Dynamic Programming in Economics”. Dans Handbook of Computational Economics. Edité par K.J. Arrow et M.D. Intriligator, pp. 619-729.
- Santos M. et Vigo J. (1998). “Analysis of Error for a Dynamic Programming Algorithm”. Econometrica, vol. 66, pp. 409-426.
- Schmitt-Grohe S. et Uribe M. (2004). “Solving Dynamic General Equilibrium Models Using a Second-Order Approximation to the Policy Function”. Journal of Economic Dynamics & Control, vol. 28, pp. 755-775.
- Sims C.A. (2001). “Solving Linear Rational Expectations Models”. Computational Economics, vol. 20, pp. 1-20.
- Tauchen G. (1990). “Solving the Stochastic Growth Model by Using Quadrature Methods and Value-Function Iterations”. Journal of Business and Economic Statistics, vol. 8, pp. 49-51.
- Wright B. et Williams J. (1982). “The Economic Role of Commodity Storage”. Economic Journal, vol. 92, pp. 596-614.
Mots-clés éditeurs : paramétrisation des anticipations, projection, itération sur la fonction de valeur, DSGE, perturbations
Date de mise en ligne : 13/10/2008
https://doi.org/10.3917/ecop.183.0115Notes
- (*)Paris-Jourdan Sciences Économiques (PSE), unité mixte CNRS-EHESS-ENPC-ENS, Cepremap et Université Paris 8. E-mail : mmichel. juillard@ ens. fr
- (**)Paris-Jourdan Sciences Économiques (PSE), unité mixte CNRS-EHESS-ENPC-ENS, Université Paris I. E-mail : ttarik. ocaktan@ ens. fr
- (1)En pratique, toutes les variables n’apparaissent pas dans un modèle à chacune des périodes t - 1, t, t + 1. Pour la simplicité de l’exposé, il vaut mieux s’abstraire de cette complication.
- (2)Notons que dans ce cas h(.) contient les fonctions de décision et les fonctions de transition.
- (3)Pour plus de détails consulter le site du projet Dynare sur http :// www. cepremap. cnrs. fr/ dynare/ .
- (4)Les dérivées secondes de F(.) sont arrangées ainsi