Abstracts
Résumé
L’Académie royale des sciences de Suède a attribué le prix 2011 de la Banque de Suède en sciences économiques institué en mémoire d’Alfred Nobel à Thomas Sargent et Christopher Sims « pour leurs recherches empiriques sur la cause et l’effet en macroéconomie ». Cet article se propose de présenter les travaux pour lesquels Sims a été primé. Face aux insuffisances des modèles macroéconométriques d’inspiration keynésienne, Sims (1980) émet la fameuse critique de Sims et propose une modélisation multivariée qui va profondément influencer la science économique. Après avoir retracé les principaux apports de cette approche, nous proposons un panorama des nombreuses recherches suscitées par les travaux pionniers de Sims.
Abstract
The Royal Swedish Academy of Sciences awarded the Sveriges Riksbank Prize in Economic Sciences in Memory of Alfred Nobel 2011 to Thomas Sargent and Christopher Sims “for their empirical research on cause and effect in the macroeconomy”. In this article we present the contribution for which Sims was awarded. In order to overcome the limitations of Keynesian Macroeconometric models, Sims (1980) made the famous Sims critique and proposed a multivariate model which has deeply influenced economic sciences. After presenting the main contributions of this approach, we conclude with an outlook of the academic researches generated by the Sims’ pioneering work.
Article body
Introduction
L’Académie royale des sciences de Suède a attribué le prix de la Banque de Suède en sciences économiques institué en mémoire d’Alfred Nobel à Thomas Sargent et Christopher Sims « pour leurs recherches empiriques sur la cause et l’effet en macroéconomie ». Selon les termes employés par l’Académie royale suédoise, « une des tâches principales du macroéconomiste est d’expliquer comment les agrégats macroéconomiques […] se comportent au fil du temps », c’est-à-dire comment ces variables sont affectées par « la politique économique et les modifications de l’environnement économique ». Le jury a décidé de récompenser Thomas J. Sargent et Christopher A. Sims dont « les recherches ont été indispensables à ce travail ».
Comment le PIB et l’inflation sont affectés par une augmentation temporaire des taux d’intérêt ou une baisse d’impôts? Que se passe-t-il si une banque centrale modifie de façon permanente son objectif d’inflation ou si un gouvernement modifie son objectif d’équilibre budgétaire? Tel est le type de questions auxquelles les lauréats ont apporté une réponse.
Les recherches de Christopher Sims ont porté plus particulièrement sur la façon dont les chocs économiques – tels que la flambée des prix du pétrole ou la forte baisse de la consommation des ménages – agissent sur l’économie. Sims est donc à la fois un macroéconomiste et un économètre car il travaille aussi bien sur les modèles théoriques que sur leurs applications empiriques.
Les travaux pour lesquels Christopher Sims a été primé remontent au tout début des années quatre-vingt, lorsqu’il introduit la représentation VAR (Vector AutoRegressive, processus vectoriel autorégressif) qui a donné lieu par la suite à de nombreuses applications et à de nombreux prolongements de la part d’économistes parmi les plus influents, notamment Olivier Blanchard et Ben Bernanke qui occupent, à l’heure où nous écrivons, respectivement, les fonctions de chef économiste au Fonds monétaire international et de président de la Réserve fédérale des États-Unis[1]. Ces modèles constituent par ailleurs une référence pour évaluer les performances de prévision des nouveaux modèles macroéconométriques et un outil très utile pour analyser les canaux de transmission des politiques économiques et des chocs macroéconomiques.
Cet article revient sur les principales contributions de Christopher Sims qui lui ont valu l’attribution de ce prix. Pour commencer, nous présentons les travaux pour lesquels Christopher Sims a été récompensé et montrons en quoi ils ont constitué une avancée importante pour la science économique (section 1). Puis, nous proposons un aperçu des prolongements suscités par les travaux de Sims et mettons en évidence leur grande actualité à travers leurs contributions récentes au débat économique (section 2). Enfin, nous concluons.
1. Les apports de la modélisation VAR
« Méfiez-vous des a priori théoriques. Laissez parler les données » (Sims, 1996). Cette phrase pourrait, à elle seule, résumer les travaux pour lesquels Sims a été récompensé. Nous sommes au milieu des années soixante-dix et le premier choc pétrolier marque définitivement la fin des Trente glorieuses. Dans le même temps, on observe un certain essoufflement des politiques basées sur un arbitrage inflation-chômage (politiques dites de Stop and Go) héritées des travaux pionniers de Phillips (1958). Le débat académique, initié par Friedman (1968) lors de son discours en tant que nouveau président de l’American Economic Association, fait rage. Les monétaristes, dont Friedman est le chef de file – et, par la suite, les auteurs de la Nouvelle Economie Classique, dont Lucas, Kydland, Prescott, Barro ou Sargent[2] – rejettent en masse les modèles keynésiens et remettent en cause leur capacité à corriger les déséquilibres macroéconomiques.
1.1 Une réponse aux grands modèles
La modélisation économétrique des années soixante-dix repose sur une multitude d’équations structurelles reliées entre elles par des variables figurant dans plusieurs équations (c’est-à-dire les modèles à équations simultanées)[3]. Au regard de la période, ces modèles ont donné des résultats très médiocres, notamment en termes de prévisions et ont suscité un grand nombre de critiques au sujet de la simultanéité des relations et de l’exogénéité des variables[4].
Sims (1980) propose alors une modélisation multivariée dont les seules restrictions sont le choix des variables sélectionnées et le nombre de retards intégrés. Cet article est le point de départ de sa critique des modèles macroéconométriques (la critique de Sims), notamment ceux d’inspiration keynésienne. Pour Sims (1980), les modèles macroéconométriques keynésiens souffrent de nombreuses insuffisances parmi lesquelles :
une restriction a priori sur les paramètres trop forte, sans aucune justification statistique, par rapport à ce que la théorie prédit, autrement dit l’exogénéité de certaines variables, comme par exemple celles liées à la politique monétaire, est postulée sans être formellement testée;
une absence de tests sur la structure causale, c’est-à-dire que le choix des formes fonctionnelles (restrictions, exclusion de variables, structure de retards) relève de décisions arbitraires;
un traitement inadéquat des anticipations des agents.
Sims (1980) propose d’utiliser un modèle statistique non contraint et dynamique, c’est-à-dire le modèle vectoriel autorégressif (VAR) comme alternative aux grands modèles macroéconométriques de l’époque. Par exemple, supposons qu’un économiste soit intéressé par le comportement de N variables macroéconomiques. À la date t, l’ensemble de ces N variables peut être représenté par le vecteur . Dès lors, ces variables admettrons la représentation VAR(p) suivante, avec p le nombre de retards :
Ainsi, l’équation (1) peut se réécrire :
que l’on peut, à son tour, réécrire de la façon suivante :
avec I la matrice identité, L l’opérateur retard, et où ut satisfait les propriétés d’un bruit blanc. Une telle représentation mérite quelques précisions. Tout d’abord, il s’agit d’une représentation d’un modèle linéaire dans les variables. Ce modèle est dynamique puisque chaque variable est influencée par son propre passé mais aussi par les valeurs passées des autres variables. Il s’agit d’un modèle non contraint, il n’existe aucune contrainte a priori d’exclusion d’une variable dans les différentes équations du système. De même, il n’existe pas de contraintes inter-équations portant sur les paramètres du modèle. Les deux seules contraintes a priori sont les variables retenues et le nombre de retard p. Le choix des variables n’est pas problématique car il répond à la question économique posée. Celui du nombre de retards ne l’est également pas car celui-ci peut uniquement s’effectuer sur la base de critères statistiques[5].
À partir de cette représentation il est potentiellement possible d’estimer des modèles comportant un grand nombre d’équations. La taille du modèle est en fait conditionnée par le nombre d’observations disponibles et le nombre de retards intégrés dans l’estimation. Il appartient au modélisateur d’effectuer un arbitrage afin de préserver un nombre suffisant de degrés de liberté et de réaliser une estimation de bonne qualité.
1.2 La question du choix des retards
Le choix du nombre p optimal de retards est une étape déterminante dans le processus d’estimation. En effet, un nombre insuffisant de retards fait perdre de l’information au processus étudié (sa mémoire n’est alors pas assez longue) et produira des estimations biaisées des paramètres autant en petit échantillon que de façon asymptotique, tandis qu’un nombre trop important de retards augmente le nombre de paramètres à estimer et réduit donc d’autant le degré de liberté du processus.
Les méthodes utilisées pour les processus AR (test du Cusum…[6]) peuvent être appliquées à condition d’être correctement adaptées à la forme vectorielle. Cependant, la littérature économique a tendance à privilégier des critères d’information. Une procédure couramment utilisée consiste à estimer le processus VAR(p) pour des retards allant de 0 à hmax, où hmax est le nombre maximum de retards inclus en se fondant sur une théorie économique, un article académique de référence ou même parfois une simple intuition économique. On retient alors le nombre p de retards qui minimise les critères AIC et SC[7] définis comme suit :
et
où T est le nombre d’observation, N le nombre de variables du système et un estimateur de la matrice de variance-covariance des résidus du modèle.
L’approche bayésienne, à laquelle Sims a largement contribué (Doan etalii, 1984; Sims, 1989), a permis d’apporter une réponse différente au problème du choix du nombre optimal de retards. Habituellement, pour améliorer le nombre de degrés de liberté d’une régression, on réduit le nombre de paramètres. Dans un processus VAR, cela revient, bien souvent, à réduire le nombre de retards. L’approche bayésienne apporte une réponse différente au problème du choix du nombre optimal de retards en spécifiant des restrictions « floues » sur les coefficients plutôt qu’une spécification « rigide » (Doan, 2010). Ainsi, dans le cadre des processus BVAR (Bayesian VAR), les paramètres du modèle sont considérés comme des variables aléatoires auxquelles l’analyste affecte des distributions a priori afin de pouvoir procéder aux estimations. Bien entendu, les résultats ne sont pas insensibles au choix de la distribution. Dans nombre d’études, les auteurs utilisent le « Minnesota prior » (Doan et alii, 1984; Litterman, 1986) qui permet de poser que les coefficients sur les retards plus éloignés sont davantage susceptibles d’être proches de zéro que ceux sur les retards plus courts.
1.3 Analyse de la politique économique
Si la critique de Sims (1980) a permis d’améliorer la modélisation macroéconométrique, la méthode d’incorporation de contraintes de simultanéité sous forme triangulaires utilisée dans les premiers modèles VAR ne nécessite pas de recourir explicitement à un modèle macroéconomique pour identifier les restrictions du modèle. Toutefois, cette méthode n’est pas a-théorique car elle implique une classification des variables selon le degré d’endogénéité (Cooley et LeRoy, 1985; Leamer, 1985). La théorie économique permet rarement de fixer les restrictions de manière à obtenir une matrice triangulaire ou récursive (Deserres et Lalonde, 1995). Lorsque les auteurs décident de fixer les restrictions à l’aide d’un modèle théorique particulier, la décomposition de Cholesky se révèle être un outil limité et souvent inadapté[8].
Bernanke (1986), Blanchard et Watson (1986) et Sims (1986) ont développé une technique d’identification d’une forme structurelle plus générale qui ne nécessitait pas l’incorporation de contraintes de simultanéité triangulaires. Sims (1986) fait la distinction entre la forme réduite et la forme structurelle d’un modèle. La forme réduite est celle qui décrit la dynamique d’un phénomène à partir des valeurs courantes et passées. Il s’agit ici de la représentation de l’équation (1). La forme structurelle décrit la dynamique d’un phénomène à partir des chocs passés qui ont affecté le phénomène en s’appuyant sur une représentation en moyenne mobile infinie. Elle est utilisée pour calculer, par exemple, des multiplicateurs. Le passage d’une forme à l’autre s’effectue à l’aide de l’identification qui repose, le plus souvent, sur la théorie économique.
Pour parvenir à la représentation structurelle, il suffit de repartir de la forme réduite du modèle VAR issue de (3). Le terme constant Φ0 est volontairement omis afin d’alléger la présentation :
où L représente l’opérateur retard et ut est un bruit blanc de matrice variance-covariance Σu. Sous les hypothèses techniques habituelles, la forme moyenne mobile infinie (VMA) du processus (6) s’écrit :
avec B(L) = Φ(L)–1.
Le problème est que les résidus ut ne sont pas, en règle générale, orthogonaux ce qui rend difficile, voire dénué de tout sens, de les interpréter comme des chocs structurels. Le modèle VAR structurel permet une telle interprétation grâce à la méthode de décomposition des chocs. Les erreurs de la forme réduite sont réécrites comme une combinaison linéaire des chocs structurels, telle que : ut = Sεt avec εt les chocs structurels et S une matrice de dimension (n, n) non singulière liant les résidus aux chocs structurels. S est une matrice de transformation, ou de passage, qui permet d’obtenir des chocs structurels interprétables εt satisfaisant les propriétés suivantes : ut = Sεt et E(εε') = I. On a donc SS' = Σ et la connaissance d’une matrice d’orthogonalisation S permet d’écrire la représentation VMA en termes de chocs orthogonaux, dits structurels :
avec
À travers la matrice C(L), (8) décrit la réaction dynamique des variables observées contenues dans Yt aux chocs structurels.
Le passage du vecteur ut, que nous estimons comme les résidus de l’estimation de (6), au vecteur εt nécessite l’identification de la matrice S–1 (ou, de manière équivalente, de la matrice inversible S), la matrice B(L) étant quant à elle déduite de l’inversion de la matrice des coefficients estimés de Φ(L), issus de l’estimation du modèle (6). La forme structurelle nécessite l’imposition de n(n – 1)/2 contraintes supplémentaires. Les contraintes sont alors imposées dans la matrice C(L) soit à court terme, soit à long terme. Le modèle SVAR a ainsi permis à de nombreux auteurs[9] de quantifier les effets multiplicateurs, instantanés et dynamiques, des politiques économiques (monétaire, budgétaire et fiscale) sur l’activité économique.
1.4 La prévision à l’aide des modèles VAR
Un des apports essentiels des processus VAR est de permettre une meilleure prévision en comparaison des modèles macroéconométriques. Conformément aux travaux initiaux de Sims (1980), les prévisions réalisées à partir de processus VAR apparaissent comme une alternative sérieuse aux modèles de prévisions jusqu’alors utilisés. Doan etalii (1984) développent une procédure de prévision en fondant l’estimation du modèle VAR sur une méthode bayésienne. Cette méthode améliore la qualité des prévisions par rapport au cas univarié et il apparaît que le modèle VAR pourrait constituer un outil précieux pour réaliser des projections des variables économiques. Litterman (1986) poursuit ce travail. Il compare la qualité des prévisions du modèle VAR avec plusieurs modèles de références en utilisant l’erreur quadratique moyenne (Root Mean Square Error). La modélisation VAR, bien qu’elle soit peu coûteuse et facilement reproductible, permet de produire une qualité de prévision équivalente aux modèles existants à court terme et améliore généralement la prévision à un horizon plus long. Ainsi, comme le notent Stock et Watson (2001), les processus VAR sont devenus aujourd’hui « une référence pour juger les nouveaux systèmes de prévision », en particulier pour évaluer la qualité prédictive des modèles d’équilibre général intertemporels stochastiques (Collard et Fève, 2008).
2. Les prolongements
2.1 Perfectionnement de la méthode de décomposition
La méthode de décomposition des chocs initialement préconisée par Sims (1980) reposait sur la décomposition de Cholesky suivant un schéma récursif. Comme nous l’avons vu précédemment (1.3), les processus VAR structurel ont ensuite permis d’introduire une méthode d’identification reposant sur des restrictions issues de la théorie économique et non nécessairement récursives. Dans un premier temps, les travaux initiaux de Sims (1986) et Bernanke (1986) ont été poursuivis par l’article séminal de Blanchard et Quah (1989) dans lequel les auteurs fixent des restrictions sur les éléments de la matrice des variances de long terme[10]. Le modélisateur fixe alors les contraintes sur l’effet multiplicateur cumulé total de long terme d’un choc sur une variable. Par exemple, il peut poser comme contrainte qu’un choc monétaire n’a pas d’effet de long terme sur le taux de change réel, c’est-à-dire qu’à la suite de ce choc, le taux de change réel peut varier à court et moyen terme mais qu’à long terme il tend asymptotiquement vers sa valeur initiale. Cette nouvelle forme de restriction permet à Blanchard et Quah (1989) de supposer que les chocs de demande n’affectent pas le niveau de long terme de la production – plutôt que de considérer que l’effet immédiat est nul comme c’était jusqu’alors le cas. Dans un deuxième temps, Galí (1992) propose un schéma d’identification combinant contraintes de court et long termes afin de différencier les chocs de demande suivant qu’ils aient ou non un effet à long terme sur le PIB. Plus récemment, une série d’articles (Faust, 1998; Canova et De Nicolò, 2002; Uhlig, 2005) a introduit une nouvelle méthode d’identification ayant recours à des restrictions sur les signes des réponses. Dans ce cas, le modélisateur suppose, théorie économique à l’appui, que certaines réponses aux chocs doivent avoir un signe spécifique. Pour finir, on peut citer le modèle VAR avec hypothèse d’exogénéité (NEAR-VAR) dans lequel il est supposé qu’un (ou plusieurs) choc(s) n’affecte(nt) pas certaines variables à la date t, pour tout t (Paul, 1996). Ce type de modèle présente deux avantages : il réduit le nombre de coefficients à estimer et améliore le degré de liberté. Toutefois, cette hypothèse d’exogénéité doit en principe être validée par un test – un test d’exogénéité (faible ou forte) proposé par Engle etalii (1983) ou un test de non-causalité, proposé par Granger (1969). Le modèle VAR avec hypothèse d’exogénéité se révèle très utile pour étudier l’impact des chocs externes sur une économie de petite ou moyenne taille, car dans ce cas les variables externes sont généralement peu sensibles aux chocs domestiques (Hoffmaister et Roldos, 2001; Maćkowiak, 2007; Sato et alii, 2011).
2.2 Contributions à l’analyse empirique
Les modèles vectoriels autorégressifs ont donné lieu à de nombreuses améliorations par la suite qui ont permis à la fois d’améliorer leur performances et d’étendre leur usage à de nouveaux domaines. Dès la fin des années quatre-vingt, le modèle à correction d’erreur décrit par Engle et Granger (1987) est généralisé au cadre d’analyse multivarié avec le développement des modèles à correction d’erreur vectoriels – VECM (Johansen, 1988). Au début des années quatre-vingt-dix, le modèle PVAR (panel VAR) commence à être utilisé pour étudier l’impact de chocs macroéconomiques sur un ensemble de pays (Canova, 1993) ce qui, dans le même temps, permet d’augmenter le nombre de degrés de liberté et la puissance des tests statistiques. Le modèle GVAR (Global VAR) combine les modèles VAR d’un ensemble de pays en reliant les variables domestiques à des variables externes qui prennent en considération les flux financiers et commerciaux internationaux (Pesaran etalii, 2004). Ce modèle est un outil particulièrement utile pour étudier l’impact et la transmission des chocs de politique économique. Au-delà de l’amélioration de la qualité de l’estimation des modèles VAR, la question concernant l’omission de variables explicatives a également été étudiée. Ainsi, Bernanke et alii (2005) proposent le tout premier modèle FAVAR (Factor Augmented VAR) qui permet de modéliser un grand nombre de variables, sans perdre en nombre de degrés de liberté, grâce à une décomposition du modèle VAR en une composante commune et une composante idiosyncratique. Une telle approche permet alors « d’augmenter » le nombre de variables étudiées sans perdre en qualité d’estimation. Un autre pan de la littérature sur les modèles VAR concerne l’évolution dans le temps des paramètres estimés. Cogley et Sargent (2005) et Sims et Zha (2006) ont développé une approche TVP-VAR (Time Varying Parameters VAR) permettant de tenir compte de l’évolution de la variance des paramètres estimés et, ainsi, une meilleure analyse de la taille, des sources et de la transmission des chocs étudiés. Enfin, le modèle de mélange vectoriel autorégressif (Mixture VAR – MVAR) a été récemment développé pour mieux capturer l’effet des événements hautement improbables à l’aide d’un mélange de distributions (Fong etalii, 2007). Ces modèles se révèlent particulièrement utiles pour étudier le risque de contrepartie lors des Stress-tests car ils mesurent le risque de manière plus précise en intégrant mieux les événements extrêmes (Guarda et alii, 2012).
2.3 Applications et apports à la science économique
Les modèles VAR ont connu de nombreuses applications dans le domaine de la macroéconomie. En premier lieu, les travaux de Leeper etalii (1996), Bernanke et alii (1997) et, surtout, de Christiano etalii (1996) ont permis d’apporter un éclairage nouveau sur la politique monétaire et ses canaux de transmission aux États-Unis. Bernanke etalii (1997), par exemple, mettent en avant les canaux bancaires (par le biais du crédit) de transmission de la politique monétaire, alors que Leeper etalii (1996) s’intéressent davantage aux canaux financiers. Christiano et alii (1996), en voulant tester la pertinence empirique du modèle IS-LM à partir d’un modèle VAR, montrent qu’à court terme une augmentation du taux des Fed Funds conduit à une diminution du PIB et à une augmentation du chômage tandis que les effets sur le niveau des prix sont faibles.
Avec la création de l’euro, les modèles VAR ont été mobilisés pour tester l’hypothèse d’homogénéité de la politique monétaire au sein de la future zone euro, la politique budgétaire restant décentralisée au niveau européen[11]. Les contributions de Mélitz et Weber (1996), Barran etalii (1996), Bruneau et de Bandt (1999) ou d’Angeloni etalii (2003) constituent une référence pour évaluer les effets de la politique monétaire en Europe. La question fondamentale de ces études est de savoir s’il s’agit d’une zone homogène pour la politique monétaire. Ces contributions permettent également de diagnostiquer les coûts et les bénéfices d’une politique monétaire unique dans une zone hétérogène et de tester l’importance des différents canaux de transmission de la politique monétaire.
Les modèles VAR ont également connu un grand succès dans le domaine de la prévision économique. Ils constituent toujours la référence pour évaluer la qualité prédictive des nouveaux modèles développés. Cependant, ils sont concurrencés par les modèles DSGE (Dynamic Stochastic General Equilibrium). Dans le cas des modèles de grande taille, suite aux développements récents[12], les modèles DSGE semblent dominer les modèles VAR car ils permettent d’introduire un grand nombre de chocs exogènes et un grand nombre de variables explicatives sans nuire au degré de liberté du processus. Toutefois, pour des modèles de petite taille comportant un nombre restreint de contraintes, les modèles VAR sont privilégiés (Doz et Malgrange, 1992; Clément et Germain, 1993; Rünstler et Sédillot, 2003; Sédillot et Pain, 2005; Collard et Fève, 2008). Comme le montrent, par exemple, Zha (1998) et Robertson et Tallman (1999), l’utilisation des modèles VAR pour la prévision permet de prendre en considération les effets de feedback. Ainsi, la corrélation dynamique entre les séries étudiées est prise en compte et elle permet, à l’aide de l’estimation du modèle, de prévoir les valeurs futures pour chacune des séries.
Si, bien souvent, les modèles DSGE sont utilisés pour déterminer les a priori bayésiens des approches empiriques (Del Negro et Schorfheide, 2004), Colander et alii (2008) considèrent qu’il est préférable d’appréhender la politique économique sans se préoccuper des fondements comportementaux des relations. Ils prônent une approche dans laquelle on utilise comme point de départ un modèle VAR avec relations linéaires dans lequel les restrictions causales du type DSGE sont évitées. Ainsi, les chercheurs ont aujourd’hui de plus en plus tendance à préférer recourir aux modèles VAR pour l’analyse et la prévision plutôt qu’aux modèles théoriques[13] (Colander et alii, 2008). L’article de Hoover etalii (2008) propose une telle approche, fondée sur un modèle VAR coïntégré, dans laquelle les choix théoriques sont guidés par les données et non l’inverse.
Conclusion
Les apports de Christopher Sims à la littérature économique sont à la fois abondants et fondamentaux. Les outils qu’il a développés ont permis d’améliorer les performances en matière de prévision et de mieux saisir les canaux de transmission des politiques et des chocs économiques. Dans un premier temps, Sims a élaboré les premiers modèles VAR, VAR structurel et VAR bayésien qui constituent le fondement de cette approche. Dans un deuxième temps, ces travaux séminaux ont suscité de nombreux prolongements. La méthode d’identification a été sensiblement améliorée avec l’introduction de contraintes de court terme, de long terme, sur les signes et l’introduction de l’hypothèse d’exogénéité. Les modèles vectoriels autoregressifs ont également donné lieu à de nombreux perfectionnements qui ont permis d’améliorer leur performances et d’étendre leur usage à de nouveaux domaines avec le développement d’une série de nouveaux modèles VECM, PVAR, GVAR, FAVAR, TVP-VAR et MVAR. Enfin, la représentation VAR développé par Sims a procuré un nouvel ancrage empirique à la macroéconomie qui se révèle particulièrement précieux alors que les insuffisances des modèles théoriques dominants ont été révélées par la crise économique de 2008. Ainsi, comme le suggèrent de nombreux auteurs (Colander etalii, 2008; Hoover et alii, 2008), cette approche pourrait constituer la base d’un mouvement de renouveau profond de la macroéconomie.
Appendices
Remerciements
Nous remercions le rapporteur anonyme de la revue pour ses précieux commentaires et suggestions qui nous ont permis d’améliorer notre travail. Nous restons seuls responsables des insuffisances et erreurs qui demeureraient.
Notes
-
[1]
Voir, par exemple, Bernanke (1986), Blanchard (1989) et Blanchard et Quah (1989).
-
[2]
Il n’est pas inutile de souligner que la plupart des auteurs de la Nouvelle Economie Classique sont, comme Friedman, issus de l’université de Chicago. Par ailleurs, outre Friedman (1976), Lucas (1995), Kydland et Prescott (colauréats en 2004) et Sargent (colauréat en 2011) ont obtenu le prix Nobel d’économie.
-
[3]
Il faut noter que Lawrence R. Klein est reconnu comme l’un des spécialistes de ce type de modélisation. Ces travaux, notamment le célèbre modèle Klein-Goldberger, furent récompensés par le prix Nobel d’économie en 1980. Pour une présentation détaillée de ce modèle, se reporter, par exemple, à Howrey (1971), Duo (1993) ou De Vroey et Malgrange (2010).
-
[4]
Cette notion d’exogénéité est abordée dès la fin des années soixante par Granger (1969) puis par Sims (1972).
-
[5]
La question de l’estimation d’un tel modèle est discutée dans Gossé et Guillaumin (2010).
-
[6]
Voir, pour une synthèse, Lardic et Mignon (2002) ou Lütkepohl et Krätzig (2009).
-
[7]
Ces critères sont les plus utilisés mais il en existe d’autres (Deniau et alii, 1992). Le lecteur intéressé peut également se reporter à Bruneau et De Bandt (1999) ou Bruneau et Jondeau (1999) pour le choix d’un critère par rapport à un autre en cas de divergence sur le nombre de retards optimal p.
-
[8]
La décomposition de Cholesky est la méthode de décomposition préconisée par Sims (1980). Elle consiste à définir, pour une matrice symétrique positive, une matrice triangulaire inférieure. Décomposer la matrice de variance-covariance selon la méthode de Cholesky revient à supposer que la matrice de passage, des innovations canoniques aux innovations structurelles, est triangulaire inférieure. Cependant, cette méthode de décomposition ne s’appuie sur aucun a priori économique et nécessite que les séries intégrées dans le modèle VAR soient rangées de la plus exogène à la plus endogène.
-
[9]
On peut citer, entre autres, Bernanke (1986), Blanchard et Watson (1986), Sims (1986), Blanchard (1990), Gerlach et Smets (1995) et Blanchard et Perotti (2002).
-
[10]
On peut également signaler les travaux de Shapiro et Watson (1988).
-
[11]
Si la politique budgétaire reste décentralisée, maintenant ainsi une souveraineté budgétaire, elle est « encadrée » par le Pacte de Stabilité et de Croissance qui a pour but d’encourager la coordination des politiques budgétaires.
-
[12]
Voir notamment Smets et Wouters (2003).
-
[13]
Les auteurs font écho à l’article de Mankiw (2006) en prenant partie pour une approche d’ingénieur de la macroéconomie plutôt que pour une approche parfois trop théorique.
Bibliographie
- Angeloni, I., A. Kashyap et B. Mojon (2003), Monetary Policy Transmission in the Euro Area, Cambridge University Press.
- Barran, F., V. Coudert et B. Mojon (1996), « L’Union européenne est-elle une zone homogène pour la politique monétaire? », Economie Internationale, 65 : 93-122.
- Bernanke, B. (1986), « Alternative Explanations of the Money-income Correlation », Carnegie-Rochester Conference Series on Public Policy, 25(1) : 49-99.
- Bernanke, B., M. Gertler et M. Watson (1997), « Systematic Monetary Policy and the Effects of Oil Price Shocks », Brookings Papers on Economic Activity, 1 : 91-142.
- Bernanke, B., J. Boivin et P. Eliasz (2005), « Measuring the Effects of Monetary Policy : A Factor-Augmented Vector Autoregressive (FAVAR) Approach », Quarterly Journal of Economics, 120(1) : 387-422.
- Blanchard, O. (1989), « A Traditional Interpretation of Macroeconomic Fluctuations », American Economic Review, 79(5) : 1146-1164.
- Blanchard, O. (1990), « Suggestions for a New Set of Fiscal Indicators », OECD working paper , no 79.
- Blanchard, O. et M. Watson (1986), « Are Business Cycles All Alike? », in R. J. Gordon (éd.), The American Business Cycle : Continuity and Change, University of Chicago Press, p. 123-156.
- Blanchard, O. et D. Quah (1989), « The Dynamic Effects of Aggregate Demand and Supply Disturbances », American Economic Review, 79(4) : 655-673.
- Blanchard, O. et R. Perotti (2002), « An Empirical Characterization Of The Dynamic Effects Of Changes In Government Spending And Taxes On Output », Quarterly Journal of Economics, 107(4) : 1329-1368.
- Bruneau, C. et O. De Bandt (1999), « La modélisation VAR structurel : application à la politique monétaire en France », Économie et Prévision, 137 : 67-94.
- Bruneau, C. et E. Jondeau (1999), « Long-Run Causality, with Application to International Links between Long-Term Interest Rates », Oxford Bulletin of Economics and Statistics, 61(4) : 545-568.
- Canova, F. (1993), « Forecasting Time Series with Common Seasonal Patterns », Journal of Econometrics, 55(1) : 173-200.
- Canova, F. et G. De Nicolò (2002), « Monetary Disturbances Matter for Business Fluctuations in the G-7 », Journal of Monetary Economics, 49(6) : 1131-1159.
- Christiano, L., M. Eichenbaum et C. Evans (1996), « The Effects of Monetary Policy Shocks : Evidence from the Flow of Funds », Review of Economics and Statistics, 78(1) : 16-34.
- Clément, E. et J.-M. Germain (1993), « VAR et prévisions conjoncturelles », Annales d’Economie et de Statistique, 32(6) : 113-135.
- Cogley, T. et T. J. Sargent (2005), « Drifts and Volatilities : Monetary Policies and Outcomes in the post WWII U.S », Review of Economic Dynamics, 8(2) : 262-302.
- Colander, D., P. Howitt, A. Kirman, A. Leijonhufvud et P. Mehrling (2008), « Beyond DSGE Models : Toward an Empirically based Macroeconomics », American Economic Review, 98(2) : 236-240.
- Collard, F. et P. Fève (2008), « Modèles VAR ou DGSE : que choisir? », Économie et Prévision, 183-184 : 153-174.
- Cooley, T. F. et S. F. LeRoy (1985), « Atheoretical Macroeconometrics : A Critique », Journal of Monetary Economics, 16(3) : 283-308.
- Del Negro, M. et F. Schorfheide (2004), « Priors from General Equilibrium Models for VARs », International Economic Review, 45(2) : 643-673.
- Deniau, G., G. Fiori et A. Mathis (1992), « Sélection du nombre de retards dans un modèle VAR, conséquences éventuelles du choix des critères », Économie et Prévision, 106 : 61-69.
- DeSerres, A. et R. Lalonde (1995), « Les sources des fluctuations des taux de change en Europe et leurs implications pour l’union monétaire », Recherches Économiques de Louvain/Louvain Economic Review : 3-42.
- De Vroey, M. et P. Malgrange (2010), « From the Keynesian Revolution to the Klein- Goldberger Model : Klein and the Dynamization of Keynesian Theory », Discussion paper IRES.
- Doan, T. (2010), RATS User’s Guide, Version 8, Estima, Evanston, IL.
- Doan, T., R. Litterman et C. A. Sims (1984), « Forecasting and Conditional Projection Using Realistic Prior Distributions », Econometric Reviews, 3(1) : 1-100.
- Doz, C. et P. Malgrange (1992), « Modèles VAR et prévisions à court terme », Économie et Prévision, 106 : 109-122.
- Duo, Q. (1993), The Formation of Econometrics : A Historical Perspective, Oxford University Press.
- Engle, R. F. et C. W. Granger (1987), « Co-integration and Error Correction : Representation, Estimation, and Testing », Econometrica, 55(2) : 251-276.
- Engle, R. F., D. F. Hendry et J.-F. Richard (1983), « Exogeneity », Econometrica, 51(2) : 277-304.
- Faust, J. (1998), « The Robustness of Identified VAR Conclusions about Money », Carnegie-Rochester Conference Series on Public Policy, 49(1) : 207-244.
- Fong, P. W., W. K. Li, C. W. Yau et C. S. Wong (2007), « On a Mixture Vector Autoregressive Model », Canadian Journal of Statistics, 35(1) : 135-150.
- Friedman, M. (1968), « The Role of Monetary Policy », American Economic Review, 58(1) : 1-17.
- Galí, J. (1992), « How Well Does the IS-LM Model Fit Postwar U.S. Data? », Quarterly Journal of Economics, 107(2) : 709-735.
- Gerlach, S. et F. Smets (1995), « The Monetary Transmission Mechanism : Evidence from the G7 Countries », CEPR Discussion Paper 1219.
- Gossé, J. B. et C. Guillaumin (2010), « L’impact des chocs externes sur et à l’intérieur de la zone euro : les enseignements d’un modèle vectoriel autorégressif structurel », Économie et Prévision, 195-196 : 15-33.
- Granger, C. J. (1969), « Investigating Causal Relations by Econometric Models and Cross-spectral Methods », Econometrica, 37(3) : 424-438.
- Guarda, P., A. Rouabah et J. Theal (2012), « An MVAR Framework to Capture Extreme Events in Macro-prudential Stress Tests », BCL working paper 63.
- Hoffmaister, A. W. et J. E. Roldos (2001), « The Sources of Macroeconomic Fluctuations in Developing Countries : Brazil and Korea », Journal of Macroeconomics, 23(2) : 213-239.
- Hoover, K. D., S. Johansen et K. Juselius (2008), « Allowing the Data to Speak Freely : The Macroeconometrics of the Cointegrated Vector Autoregression », American Economic Review, 98(2) : 251-255.
- Howrey, E. P. (1971), « Stochastic Properties of the Klein-Goldberger Model », Econometrica, 39(1) : 73-87.
- Johansen, S. (1988), « Statistical Analysis of Cointegration Vectors », Journal of Economic Dynamics and Control, 12(2) : 231-254.
- Lardic, S. et V. Mignon (2002), Econométrie des séries temporelles macroéconomiques et financières, Economica.
- Leamer, E. (1985), « Vector Autoregressions for Causal Inference? », Carnegie-Rochester Conference Series on Public Policy, 22(1) : 255-304.
- Leeper, E., C. A. Sims et T. Zha (1996), « What Does Monetary Policy Do? », Brookings Papers on Economic Activity, 2 : 1-63.
- Litterman, R. B. (1986), « Forecasting with Bayesian Vector Autoregressions – Five Years of Experience », Journal of Business & Economic Statistics, 4(1) : 25-38.
- Lütkepohl, H. et M. Krätzig (2009), Applied Time Series Econometrics, Cambridge University Press.
- Maćkowiak, B. (2007), « External Shocks, U.S. Monetary Policy and Macroeconomic Fluctuations in Emerging Markets », Journal of Monetary Economics, 54 : 2512-2520.
- Mankiw, N. G. (2006). « The Macroeconomist as Scientist and Engineer », NBER working paper 12349.
- Mélitz, J. et A. Weber (1996), « Coûts et avantages d’une politique monétaire commune en France et en Allemagne », Economie Internationale, 65 : 63-92
- Paul, S. (1996), « Defence Spending and Unemployment Rates : An Empirical Analysis for the OECD », Journal of Economic Studies, 23(2) : 44-54.
- Pesaran, M. H., T. Schuermann et S. M. Weiner (2004), « Modelling Regional Interdependencies using a Global Error-correcting Macroeconometric Model », Journal of Business and Economic Statistics, 22 : 129–162.
- Phillips, A. (1958), « The Relationship between Unemployment and the Rate of Change of Money Wage Rates in the United Kingdom, 1861-1957 », Economica, 26(104) : 299-315.
- Robertson, J. C. et E. W. Tallman (1999), « Improving Forecasts of the Federal Funds Rate in a Policy Model », Federal Reserve Bank of Atlanta working paper 99-3.
- Rünstler, G. et F. Sédillot (2003), « Short-term Estimates of GDP by Means of Monthly Data », ECB working paper 76.
- Sato, K., Z. Zhang et M. McAleer (2011), « Identifying Shocks in Regionally Integrated East Asian Economies with Structural VAR and Block Exogeneity », Mathematics and Computers in Simulation, 81 : 1353–1364.
- Sédillot, F. et N. Pain (2005), « Modèles d’indicateurs de la croissance du PIB réel dans les principales économies de l’OCDE », Revue économique de l’OCDE, 40 : 185-246.
- Shapiro, M. et M. Watson (1988), « Sources of Business Cycles Fluctuations », NBER Macroeconomics Annual, 3 : 111-148.
- Sims, C. A. (1972), « Money, Income, and Causality », American Economic Review, 62(4) : 540-552.
- Sims, C. A. (1980), « Macroeconomics and Reality », Econometrica, 48(1) : 1-48.
- Sims, C. A. (1986), « Are Forecasting Models Usable for Policy Analysis? », Minneapolis Federal Reserve Bank Quarterly Review, 10 : 2-16.
- Sims, C. A. (1989), « A Nine Variable Probabilistic Macroeconomic Forecasting Model », Discussion Paper 14, Federal Reserve Bank of Minneapolis.
- Sims, C. A. (1996), « Macroeconomics and Methodology », Journal of Economic Perspectives, 10(1) : 105-120.
- Sims, C. A. et T. Zha (2006), « Were There Regime Switches in U.S. Monetary Policy? », American Economic Review, 96(1) : 54-81.
- Smets, F. et R. Wouters (2003), « An Estimated Dynamic Stochastic General Equilibrium Model for the Euro Area », Journal of the European Economic Association, 1(5) : 1123-1175.
- Stock, J. H. et M. W. Watson (2001), « Vector Autoregressions », Journal of Economic Perspectives, 15(4) : 101-115.
- Uhlig, H. (2005), « What Are the Effects of Monetary Policy on Output? Results from an Agnostic Identification Procedure », Journal of Monetary Economics, 52(2) : 381-419.
- Zha, T. (1998), « A Dynamic Multivariate Model for Use in Formulating Policy », Economic Review, Federal Reserve Bank of Atlanta, 1 : 16-29.