Corps de l’article
Introduction
« QUE FERIONS NOUS SANS L’ÉCONOMÉTRIE? » Cette question qui sert de titre à la première section de Malinvaud (1997) se pose constamment en science économique. Par exemple, Dufour (1997, 2001, 2003) porte un regard critique sur plusieurs modèles et méthodes. Des questions fondamentales sont aussi abordées par Stock (2010) qui confronte l’économétrie à l’expérimentation. Sur base de plusieurs études de cas en macroéconomie et en finance[1], cet article se repenche sur la question. Tout d’abord nous considérons des situations où plusieurs méthodes économétriques populaires pourraient impliquer des conclusions économiques fallacieuses. Par la suite, nous nous demandons de quelle manière la discipline a et pourrait évoluer pour éviter ces difficultés.
Une question naturelle permettra de situer les cas que nous aborderons. Comme économistes, qu’attendons-nous donc de l’économétrie, ou plus globalement, de la statistique? Les méthodes d’inférence statistique sont sensées : (i) produire des régions de confiance précises pour les paramètres d’intérêt et respecter le niveau de confiance; (ii) rejeter les modèles non compatibles avec les données et respecter le seuil de significativité; (iii) faciliter l’estimation et l’inférence dans les modèles d’équilibre; (iv) diagnostiquer les erreurs d’ajustement, et (v) tenir compte du fondamental et, idéalement, demeurer robustes aux hypothèses non essentielles.
En économie il y a presque toujours des fondements théoriques, ou plus précisément un ou plusieurs modèles, qui demandent à être testés par le biais des analyses empiriques. Pour ne pas s’en tenir à une vision purement dogmatique, nombre d’économistes ont conçu leurs modèles comme des outils quantitatifs visant à évaluer des questions substantives. Loin d’être définitivement conciliés, certains modèles théoriques font quand même consensus pour cet objectif. On s’entend moins bien quand il s’agit de formuler des versions économétriques pour les confronter aux données. Idéalement, la discipline préfère se concentrer sur des implications fondamentales, mais en permettant aux données de se prononcer sur les difficultés d’ajustement. Pour distinguer la spécification du fondamental versus l’ajustement, nous procèderons par cas concrets. Quelques exemples de base peuvent situer le lecteur : les élasticités et les effets marginaux prédits par la théorie constituent des paramètres d’intérêt qui capturent les effets fondamentaux. L’hétérogénéité non observée, la distribution des résidus et les erreurs de mesure constituent des paramètres de nuisance sur lesquels la théorie sous-jacente renseigne peu; cependant, la fiabilité statistique en dépend et souvent énormément.
Étant donné une telle définition d’un modèle, cet article se penche sur plusieurs cas en macroéconomie et en finance pour lesquelles les réponses aux questions (i)-(v) ci-dessus peuvent être fallacieuses. Nous rappellerons d’abord que l’inférence fallacieuse ainsi que ses causes et conséquences sont souvent difficiles à détecter. C’est cette évaluation des effets fallacieux qui nous intéressera en premier lieu. Des solutions tractables seront ensuite discutées. Notre présentation évite les détails techniques et met plutôt l’emphase sur la substance. La discussion se base principalement sur les modèles structurels ou en d’autres termes les modèles d’équilibre.
1. Les attentes et les tendances en macroéconomie
Les élaborations théoriques les plus complètes ne suffisent typiquement pas à elles seules pour la construction d’une structure économétrique. Il est donc rare que l’estimation d’un modèle macroéconomique n’exige pas quelque hypothèse supplémentaire. Mais ces hypothèses ne sont souvent pas anodines quant à l’analyse statistique. Par exemple, l’existence d’une solution rationnelle unique et stable pose des contraintes complexes et concrètes sur l’espace des paramètres (Fernandez-Villaverde, Rubio-Ramirez, Sargent et Watson, 2007; Iskrev, 2010; Komunjer et Ng, 2011). La spécification des processus qui génèrent les chocs, les mesures des grandeurs quant aux observables ainsi que le traitement des tendances nécessitent des modalités de convenance dont certaines sont souvent plus restrictives que ce que dicte la théorie (Del Negro, Schorfheide, Smets et Wouters, 2007; Canova et Sala, 2009; Consolo, Favero et Paccagnini, 2009; Cochrane, 2011). Nous en considérons deux, pour illustrer leurs effets particulièrement destructeurs.
(1) La démarche sur base de modèles « fermés ». Même si l’approche dogmatique favorise l’information complète, les modèles fermés sont plus faciles à rejeter statistiquement ce qui va à l’encontre de leurs objectifs. On peut quand même apprendre comment les améliorer, à travers de tels rejets. Une méthode à information complète devrait donc imbriquer une évaluation de la structure sous-jacente.
(2) Les tendances et les « filtres ». En macroéconomie, les implications testables sont souvent formulées en déviation par rapport à un état stationnaire, ce qui requiert une définition de ce dernier et des outils pour l’en purger des données. Les pratiques habituelles pour ce faire ont soulevé plusieurs critiques. Nous en soulignons une en particulier dont l’importance n’a été relevée que récemment. Pour produire une variable filtrée pour la période t, plusieurs de ces filtres utilisent l’ensemble des données ou plus précisément, l’information au-delà du temps t. Les retards des variables filtrées sont quand même utilisés comme instruments, ce qui présume qu’ils appartiennent à l’ensemble d’information dont dispose l’économètre jusqu’au temps t. Cette contradiction pourrait contribuer aux problèmes d’ajustement des modèles et causer leur rejet fallacieux.
Dans ce qui suit, un modèle économétrique est considéré « fermé » si l’ensemble d’information se limite aux variables exogènes ou prédéterminées complètement spécifiées par le biais du modèle théorique qui le sous-tend. Ces variables sont considérées comme « instruments internes » ou « spécifiques au modèle »; typiquement, ces instruments sont souvent les retards de toutes les variables endogènes observables du modèle. Conformément, l’estimation avec « information complète » signifie qu’un modèle complet est estimé. L’approche « information limitée » permet de conditionner sur un ensemble d’instruments qui n’est pas nécessairement spécifié dans le modèle théorique sous-jacent[2]. Par exemple, le tableau 2 se rapporte à un modèle à trois équations et trois observables : l’inflation, l’écart à la production et le taux d’intérêt nominal. Les instruments internes sont les retards de ces trois variables. Les instruments externes sont les retards de l’inflation salaire et prix des commodités.
Étant donné ces faits, nous examinerons deux types d’outils : les méthodes robustes aux problèmes d’identification qui produisent des intervalles de confiance vides lorsque la structure est contrefactuelle et les filtres en temps réels dont les retards demeurent des instruments valides. Pour concrétiser notre analyse, nous nous basons sur deux applications étudiées par Dufour, Khalaf et Kichian (2006, 2010, 2013); voir aussi Mavroeidis (2004, 2005, 2010), Kleibergen et Mavroeidis (2009) ou Guerron-Quintana, Inoue et Kilian (2013).
Considérons d’abord le modèle suivant proposé par Eichenbaum et Fisher (2007) pour expliquer l’inflation :
où t est l’inflation en déviation par rapport à l’état stationnaire, ŝt est le coût marginal réel en déviation par rapport à l’état stationnaire, A(ϖ) et D(β,θ,ϖ) sont des fonctions connues d’un paramètre calibré ϖ. Pour simplifier la présentation et nous concentrer sur les questions qui nous préoccupent directement, nous ne définissons pas ce paramètre ni les fonctions en question. Le lecteur peut considérer l’article de référence pour une présentation complète du modèle. β est le paramètre usuel associé aux choix intertemporels. Le terme d’erreur e1,t+1 qui imbrique les erreurs sur les anticipations suit une moyenne mobile d’ordre 1 [MA(1)] avec paramètre τ, et ce dernier vise à mesurer les délais d’exécution. Dans une période donnée, chaque firme réajuste son prix avec probabilité (1 – θ). En pratique, 1 / (1 – θ) mesure la durée moyenne des prix sur base trimestrielle. Une proportion ν de firmes indexe son prix à l’inflation retardée; ν = 1 implique un indexation complète.
Dufour, Khalaf et Kichian (2010) proposent une estimation ensembliste robuste aux instruments faibles pour les paramètres ν et θ en calibrant β. Le principe se résume comme suit. L’ensemble de confiance au seuil α concide avec les valeurs ν0 et θ0 qui ne sont pas rejetées par le test Anderson-Rubin[3] généralisé suivant : on régresse
sur les instruments, et on applique le test Wald corrigé pour la dépendance sérielle pour tester la nullité des instruments. Cette région de confiance ainsi obtenue est robuste à la qualité des instruments, ce qui ne serait pas le cas pour les intervalles de confiance qu’on obtiendrait sur base de la méthode des moments généralisés usuelle.
Pour garder cette discussion succincte, nous n’élaborerons pas plus sur la méthode d’estimation ni sur la littérature importante en économétrie qui la sous-tend. Le lecteur peut consulter Dufour, Khalaf et Kichian (2006, 2010, 2013) pour plus de détails. Deux ensembles d’instruments sont utilisés pour les résultats du tableau 1 : l’ensemble dénoté ZEF qui inclut les instruments spécifiques au modèle retenu (Eichenbaum et Fisher, 2007), et l’ensemble dénoté Z* qui inclut les retards des variables endogènes de trois modèles alternatifs (Eichenbaum et Fisher, 2007; Blanchard et Gali, 2007, 2010). Les effets liés à l’élargissement de l’ensemble d’information sur l’estimation de 1 / (1 – θ), qui est le paramètre principal du modèle, est spectaculaire. L’ajout d’instruments externes au modèle, qui demeurent pertinents puisqu’ils s’inspirent des modèles alternatifs portant sur l’inflation, améliore la précision de l’intervalle dramatiquement. Le modèle fermé est quasi non informatif sur 1 / (1 – θ), alors que l’estimation qui permet un ensemble d’information défini avec une perspective plus large mais bien fondée produit des valeurs compatibles avec la théorie.
Considérons maintenant un modèle avec trois équations structurelles (Clarida, Gali et Gertler, 1999; Linde, 2005)
pour expliquer l’inflation, πt, l’écart à la production, yt, et le taux d’intérêt nominal, Rt. Les erreurs sont i.i.d. normales (dans le temps) mais une corrélation contemporaine est permise.
Dufour, Khalaf et Kichian (2013) proposent une estimation ensembliste multivariée robuste aux instruments faibles pour les paramètres ωf, γ, βf, βr, γπ, γy et ρj, j =1, ..., 3. Le principe généralise le concept univarié ci-dessus. L’ensemble de confiance coïncide avec les valeurs ωf0, γ0, βf0, βr0, γπ0, γy0 et ρj0, j =1, ..., 3, qui ne sont pas rejetées par le test Anderson-Rubin multivarié suivant : on régresse
et
conjointement sur πt-1, yt-j, j = 1, ..., 4 et Rt-j, j = 1, ..., 3 et on applique un test de type F multivarié pour tester la nullité de tous les retards dans les équations 1 et 3, ainsi que la nullité des retards de l’inflation et du taux d’intérêt uniquement dans l’équation 2. Cette région de confiance ainsi obtenue est robuste à la qualité de l’identification, ce qui ne serait pas le cas pour les intervalles de confiance qu’on obtiendrait sur la base du maximum de vraisemblance usuel. Le lecteur peut consulter Dufour, Khalaf et Kichian (2013) pour plus de détails sur ce test ainsi que d’autres tests qui imposent l’information complète ainsi qu’une solution rationnelle unique et stable. Deux mesures pour l’écart à la production sont considérées : la mesure standard et une mesure en temps réel. Deux ensembles d’instruments sont utilisés pour les résultats du tableau 2 : l’ensemble dénoté « Instruments internes » qui inclut les instruments spécifiques au modèle et l’ensemble dénoté « Instruments » qui inclut les retards de plusieurs variables externes au modèle mais qu’on retrouve habituellement dans les estimations empiriques de l’inflation.
On rejette le modèle avec : (i) la méthode information complète et les deux mesures de l’écart à la production; (ii) la méthode information limitée Anderson-Rubin généralisée corrigée pour la dépendance sérielle, avec ou sans instruments « externes », et (iii) la méthode information limitée Anderson-Rubin généralisée i.i.d. multivariée et la mesure standard de l’écart à la production. Les résulats avec la méthode information limitée Anderson-Rubin généralisée i.i.d. multivariée et la mesure en temps réel de l’écart à la production sont résumés dans le tableau 2. Ces résultats renforcent notre message sur les avantages d’une modélisation qui évite de fermer les modèles.
Malgré les préférences et les débats de la discipline, rappelons qu’il n’est pas nécessaire de choisir entre l’estimation d’une seule équation et celle d’un système complet et fermé. Une méthode à information limitée ne se base nécessairement pas sur « une seule » équation! Une approche information limitée sur base de plusieurs équations peut exploiter l’information sur les variables communes aux équations considérées avec un minimum de contraintes, ce qui pourrait nous renseigner quand même empiriquement lorsque les hypothèses dont le seul but est de fermer le modèle doivent être relâchées. En effet, la parcimonie des modèles fermés usuels implique un ensemble d’information restreint qui manquerait de crédibilité. Par exemple, les variables qui interviennent dans plusieurs modèles d’équilibre bien connus sur l’inflation sont : l’écart de production, le coût marginal ou le taux de chômage, et un taux d’intérêt de court terme, ce qui implique que ces variables et leurs retards suffisent pour prescrire les politiques monétaires. Est-ce raisonnable? Une structure plus flexible devrait permettre de l’information additionnelle qui reflète l’environnement réaliste des décideurs.
2. Les modèles empiriques d’évaluation d’actifs
Les échantillons disponibles en finance empirique sont typiquement plus grands que ceux dont on dispose par exemple en macroéconomie, ce qui promet une analyse plus précise des données. Mais il arrive souvent que les approximations asymptotiques ne soient pas adéquates par rapport aux paramètres posés en hypothèse. De telles irrégularités peuvent engendrer des interprétations invalides et des conclusions fautives qui toucheraient un large éventail de modèles financiers courants ainsi que plusieurs sujets fondamentaux en finance. Nous proposons d’illustrer ces questions à l’aide de modèles financiers fondés sur des régressions multivariées, en dépit de la simplicité de leur structure statistique.
De fait, plusieurs questions importantes en finance conduisent à tester la significativité du vecteur des constantes dans une régression multivariée de rendements sur des facteurs de risque : l’efficience de portefeuilles, le CAPM, les modèles Fama-French-Carhart, entre autres (voir, par exemple, Gibbons, Ross et Shanken, 1989; Fama et French, 1992, 1993, 1995, 1996, 2004; Shanken, 1996; Carhart, 1997; Sentana, 2009). Plusieurs modèles non linéaires sont aussi définis par le biais des restrictions sur ces constantes (Shanken, 1985, 1992; Barone-Adesi, Gagliardini et Urga, 2004; Shanken et Zhou, 2007).
Pour clarification, considérons un modèle prototype:
où rit, i = 1, ..., n, sont les rendements, possiblement excédentaires, sur n portefeuilles et r̃jt, j = 1, ..., s, sont des rendements, possiblement excédentaires, sur s facteurs de risque. Certaines extensions conditionnelles du modèle (voir Beaulieu, Dufour et Khalaf, 2007) incluent aussi des instruments et des termes d’interaction. Pour faciliter la discussion, résumons le modèle sous forme matricielle comme suit :
L’hypothèse suivante sur les termes d’erreurs
permet de concrétiser la spécification. La distribution du vecteur des Wt est par exemple normale ou suit la loi de Student multivariée ou une autre loi elliptique telle un mélange de loi normales multivariées (voir Beaulieu, Dufour et Khalaf, 2005, 2007, 2009, 2010, 2013) pour tenir compte de l’asymétrie et des queues épaisses des données financières. Cette famille de lois est conforme aux théories financières d’équilibre.
Dans ce contexte, plusieurs implications testables peuvent être formulées par des contraintes de la forme
Les exemples les plus connus incluent :
Les tests d’efficience de portefeuille. Dans ce cas, C = (1, 0, ..., 0)′ pour les modèles non conditionnels. Pour les modèles conditionnels dans lesquels Xt inclut des instruments et leur interactions avec les facteurs, C est une matrice de sélection [des 0 et des 1] qui vérifie la nullité de ces variables ainsi que les constantes.
Les tests du « spanning ». Dans ce cas, on ajoute des lignes à C pour vérifier si la somme des bêtas est égale à 1.
Les analyses de performance. Pour tester la « performance anormale », C correspond aussi à une matrice de sélection.
Les modèles d’arbitrage, à facteurs, ou à la « Black » (Black, 1972). Dans ce cas, la contrainte prend la forme
ce qui implique un rang réduit pour B. Le vecteur Θ se rapporte au taux zéro-bêta et/ou au prix du risque.
Ces modèles sont de loin les plus communément utilisés en évaluation d’actifs. C’est pourquoi il est important de disposer de méthodes d’inférences précises, parce que l’utilisation de méthodes qui ne sont qu’approximatives ou qui ne tiennent pas compte de la non-normalité peut conduire à des interprétations empiriques invalides des paramètres sous-jacents, et en particulier ceux qui se rapportent au prix du risque. C’est l’évaluation des ce dernier qui nous intéressera en particulier, en raison de son évidente importance. Cet exposé mettra l’accent sur quatre catégories de problèmes qui perdurent dans ce contexte.
Le premier relève de la dimensionnalité. Lorsque n augmente, la dimension de J augmente rapidement et les degrés de liberté diminuent conformément. Même dans les cas standards où les lois asymptotiques ne dépendent pas de J, les lois exactes en dépendent fortement. L’estimation de J requiert un grand T par rapport à n. Ces modèles sont donc typiquement estimés sur base de rendement de portefeuilles, plutôt que d’actifs.
Mais cette approche ne s’avère pas sans coûts ni sans contraintes. Même si une interprétation rigide de (1)-(2) comme un modèle d’équilibre est moins polémique en finance qu’en macroéconomie contemporaine, il ne faut pas perdre de vue les principes fondamentaux que ces systèmes devraient incorporer. D’une part, la distribution des Wt devrait demeurer elliptique ou au moins fermée quant aux combinaisons linéaires puisqu’un portefeuille est une combinaison linéaire d’actifs. Nous devons aussi nous interroger sur la repondération éventuelle des portefeuilles (Kandel et Stambaugh, 1989). Plus précisément, les transformations du vecteur des rendements Rt à
où A une matrice n × n inversible telle que Aln = ln et ln = (1, ..., 1)′ un vecteur de dimension n, ne devraient pas affecter la qualité de l’inférence. Les tests non invariants peuvent être fallacieux (Beaulieu, Dufour et Khalaf, 2010, 2013).
De plus, les questions principales auxquelles ces modèles tentent de répondre, par exemple les cas (i)-(iv) répertoriés ci-dessus, constituent des hypothèses conjointes sur les paramètres des n équations du système (1). Même dans le cas linéaire, la précision atteinte avec l’analyse simultanée d’un grand nombre que ce soit de portefeuilles ou d’actifs constitue des défis majeurs pour l’économétrie usuelle. Beaulieu, Dufour et Khalaf (2005, 2007, 2009, 2010, 2013) démontrent que l’économétrie sur base de simulation permet en principe d’en contourner quelques-uns.
En particulier, la méthode des tests de Monte Carlo (MC) (Dufour, 2006) permet d’obtenir, par des simulations, la distribution sous l’hypothèse nulle des statistiques à l’étude tout en tenant compte des relations conjointes sous-jacentes sans se contraindre aux lois normales. Sur base de cette méthode, plusieurs résultats publiés par Beaulieu, Dufour et Khalaf (2005, 2007, 2009, 2010, 2013) sont négatifs vis-à-vis les conceptions classiques et les idées reçues. Ces résultats montrent que l’intuition concernant la fiabilité de plusieurs facteurs n’est validée que pour des cas particuliers, et que leur contribution positive établie sur base de méthodes usuelles ne résiste pas à l’introduction des lois non normales et des tests simultanés. Par exemple, Beaulieu, Dufour et Khalaf (2007, 2010) documentent des constantes non nulles ou en d’autres termes des rendements anormaux inexpliqués dans les modèles à la Fama-French-Carhart. Au lieu de valider les conditions d’équilibre en annulant les constantes, les facteurs ne semblent servir qu’à normaliser les résidus. Il s’agit de résultats révélant des déviations importantes par rapport aux acquis usuels dans cette littérature.
On s’aperçoit aussi empiriquement que les bêtas associés au facteur du marché sont proches de un pour des régressions sur base de portefeuilles. Ce manque de dispersion cause des problèmes d’identification importants dans la définition du prix du risque et pour les méthodes en deux étapes (voir Kleibergen, 2009; Khalaf et Schaller, 2013). Ces méthodes attribuées à Fama et Macbeth (1973) commencent par une régressions de type (1); les estimés des coefficients de régression sont sauvegardés et constituent ce qu’on appelle communément les bêtasde lapremière passe. Les moyennes des rendements dans le temps sont par la suite régressées sur une constante et ces bêtas préalablement estimés; les coefficients de cette régression de seconde étape constituent le prix associé aux facteurs de risque que capture chaque bêta. Il est clair qu’un manque de variabilité du coté de ces bêtas cause de la colinéarité dans la régression de seconde étape, ce qui compromet la précision de son estimation. Les méthodes usuelles incluant les corrections pour les erreurs de mesure (Shanken, 1992) dissimulent les effets pervers de ce problème. En dépit des travaux précurseurs de Kan et Zhang (1999a, b), l’importance de ce problème n’a donc été perçue que récemment.
Une optique multivariée en séries chronologiques n’échappe pas à ce problème, qui se manifeste toutefois de manière plus subtile. Dans ce cas, les contraintes structurelles sont exprimées directement en fonction du prix du risque et du taux sans risque. Ces quantités ne sont pas observables mais sont incorporées dans les modèles à travers des restrictions de rang réduit par exemple sous la forme (3), ce qui complique leur identifiabilité. Supposons par exemple que les bêtas associés à un facteur sont conjointement non significatifs ce qui impliquerait que la colonne pertinente de la matrice B est un vecteur de zéros. Il est évident que la composante de Θ qui multiplie les éléments de cette colonne nulle sera évacuée de la contrainte, donc du modèle, et devient ainsi non identifiable.
Est-ce que le problème demeure une présomption théorique certes intéressante mais pratiquement non pertinente? Malgré une littérature bien établie (voir, par exemple, Lewellen, Nagel et Shanken, 2010; Harvey, Liu et Zhu, 2013), les mesures courantes des facteurs de risque se sont avérées empiriquement redondantes (Kleibergen, 2009; Kleibergen et Zhan, 2013; Khalaf et Schaller, 2013; Gospodinov, Kan et Robotti, 2013; Beaulieu, Dufour et Khalaf, 2013, 2014). Les bêtas proches de zéros surviennent donc assez fréquemment à cause (et en dépit) de la surabondance de facteurs.
Les problèmes d’identification ont des effets pervers sur les méthodes d’estimation traditionnelles. Dans ce contexte, les conditions de régularité requises pour valider les méthodes asymptotiques incluant les preuves de convergence et les approximations des lois limites des estimateurs ne tiennent pas, ou tiennent faiblement et/ou non uniformément. Par conséquent, la théorie asymptotique usuelle ne fournit que des approximations très imprécises. Les conclusions des études empiriques qui appliquent ces approximations peuvent être fortement affectées, même si les échantillons utilisés dans les analyses des rendements (par exemple, sur base d’actifs ou de données à haute fréquence) peuvent être de grande taille.
À cet effet, il faut reconnaître que la finance empirique se révèle lente à adopter les résultats récents en théorie économétrique. Il est possible que les praticiens se sentent immunisés à ces problèmes vu les grandes tailles d’échantillon typiquement disponibles en finance. La littérature économétrique (Dufour, 1997, 2003; Stock, Wright et Yogo, 2002) a par contre démontré que l’identification n’est pas un problème de petit échantillon, mais plutôt un problème de fondements exacts ou asymptotiques qu’il importe de revoir. Pour illustrer ces faits, nous examinerons deux types d’outils, ceux robustes aux problèmes d’identification dont on a discuté ci-dessus ainsi que ceux qui permettent de capturer l’asymétrie.
Pour concrétiser notre analyse, nous nous basons sur les procédés introduits par Beaulieu, Dufour et Khalaf (2009, 2013, 2014) et Beaulieu, Gagnon et Khalaf (2014). Pour simplifier la présentation et nous concentrer sur les questions qui nous préoccupent directement, nous nous contentons d’une description succincte des données et des méthodes en question. Le lecteur peut considérer les articles de référence pour une présentation complète des portefeuilles, des facteurs, des lois stables, du calcul des statistiques, de leur seuil de signification marginal F ou simulé, ainsi que leur inversion. Les principes se résument à ce qui suit.
Une statistique de type Hotelling permet d’évaluer (2) lorsque C est un vecteur connu. En fixant C comme un vecteur qui sélectionne un régresseur à la fois, on peut tester la significativité conjointe (interportefeuilles) de chaque facteur. La statistique se calcule de manière très simple connaissant C, sur base des estimés des moindres carrés ordinaires de B. Un point critique F s’ajuste assez bien aux modèles avec plusieurs facteurs. On peut aussi inverser le test associé à un cas particulier de (3) pour lequel Θ est fixé à une valeur donnée Θ0, pour obtenir une région de confiance pour Θ : cette région correspond aux valeurs de Θ0 qui ne sont pas rejetées par le test du Hotelling en question. L’intervalle robuste peut être borné, vide ou non borné. Un intervalle vide rejette la spécification alors qu’un intervalle non borné signale des problèmes d’identification causés par un facteur redondant.
Beaulieu, Dufour et Khalaf (2009) maintiennent un modèle linéaire de la forme (1) avec un facteur de marché, mais élargissent la famille de lois sur Wt en dehors de la classe usuelle des lois de Student symétriques. Le tableau 3 rapporte les résultats du test de Hotelling portant sur les constantes de régression pour 12 portefeuilles triés par industrie. Le test permet de conclure en faveur du CAPM lorsque son seuil de signification marginal est simulé avec des lois stables asymétriques. Ces résultats constituent des déviations notables par rapport aux conclusions usuelles sur le CAPM retenues par la finance empirique. Notez que la famille des lois stables asymétriques est compatible avec les fondements théoriques du CAPM (Samuelson, 1967) mais pas nécessairement avec la théorie des tests usuels.
La théorie financière permet de capturer l’asymétrie sous une forme alternative, à travers des facteurs observables. Plus précisément, il s’agit d’une asymétrie dans la dépendance entre les rendements et le marché, plutôt qu’une non normalité des résidus. Le CAPM quadratique (Kraus et Litzenberger, 1976; Barone-Adesi, Gagliardini et Urga, 2004) postule qu’un modèle qui inclut deux facteurs, un portefeuille de marché et son carré, capture ce type d’asymétrie avec ou sans une contrainte de type (3). Les tableaux 4 et 5 se rapportent à un tel modèle, analysé avec 25 portefeuilles de type Fama-French.
Le tableau 4 rapporte des intervalles de confiance sur les composantes de Θ par rapport à chaque facteur. Les intervalles robustes rejettent la spécification pour une sous-période et ne sont bornés qu’en une seule autre, ce qui signale des problèmes de facteur redondant. Ces intervalles ne sont pas nécessairement non informatifs: il s’avère que pour certaines sous-périodes après 1980, le terme quadratique est significatif malgré les difficultés d’identification. Il est utile de contraster les intervalles de type Wald qui ne sont pas fiables en présence de facteurs redondants, ce que nous avons prouvé analytiquement, aux résultats robustes. En effet, l’information que révèlent ces intervalles ne concorde que très peu.
Le tableau 5 rapporte les tests de significativité conjointe pour chaque facteur, ainsi qu’un test de la contrainte d’équilibre (3): ce dernier rejette le modèle s’il n’existe aucune valeur de Θ qui ne satisfasse les données. Ce test correspond à un intervalle de confiance vide (voir Beaulieu, Dufour et Khalaf, 2013, 2014). Les résultats du tableau 5 illustrent l’utilité d’une approche globale qui consiste à amalgamer l’évaluation de la spécification et l’inférence ensembliste sur les paramètres du modèle. Si on se contente de tester le modèle, on peut facilement accepter un modèle mal identifié. Les intervalles de confiance contiennent beaucoup plus d’information qu’un test, surtout si leur méthode de construction permet des ensembles vides. Ces derniers nous empêchent d’interpréter des modèles non compatibles avec les données. En contraste, les intervalles non bornés nous permettent de discerner un non-rejet, possiblement inutile.
Conclusion
Les systèmes d’équations structurelles découlant des principes d’optimisation sont les modèles le plus communément utilisés pour étudier les problématiques macroéconomiques courantes ainsi qu’en finance empirique. L’inférence statistique dans ce type de modèles pose des défis considérables, pour plusieurs raisons. Les équations structurelles en macroéconomie sont « prospectives » et sont exprimées en fonction des valeurs attendues de variables fondamentales. Ces dernières ne sont pas observables, cependant l’hypothèse des attentes rationnelles est couramment imposée. Au niveau multivarié et non linéaire, les solutions rationnelles impliquent des contraintes non standard et difficiles à caractériser sur l’espace des paramètres. En finance, la dimensionalité ajoute des complexités sérieuses au niveau des systèmes multivariés. Ces difficultés sont souvent exacerbées par une identification statistique difficile.
L’économétrie robuste à l’identification a fait de grand progrès au cours des deux dernières décennies, en particulier dans le cas des méthodes avec variables instrumentales ou moments généralisés. Les travaux théoriques sont de plus en plus convainquants. Cependant, il faut admettre que la majorité des méthodes récemment proposées, et en particulier l’inférence par inversion de test, nécessitent un calcul informatique élaboré et surtout non standard que l’on peut résumer comme suit.
L’inférence par inversion de test portant sur un vecteur de paramètres requiert la solution d’un système d’inéquations conjointes non linéaires. Ces solutions constituent des surfaces multidimensionnelles qu’il faut projeter sur chacun des axes afin d’isoler l’information pertinente à chaque composante du vecteur d’intérêt. Pour projeter une région sur un des axes, il faut identifier, dans cette région, la plus petite et la plus grande valeur de la composante pertinente du vecteur. Les régions dont il est question en économétrie sont non standards, possiblement discontinues et non convexes, pour lesquelles des solutions explicites analytiques existent exceptionnellement. L’optimisation numérique est donc souvent inévitable. Les progrès importants en économétrie vont donc nécessiter des avancées et des vulgarisations relatives au calcul numérique et informatique.
Dans le contexte macroéconomique, les méthodes valides en échantillons finis font défaut. On observe un effort récent soutenu dans la discipline pour proposer des méthodes asymptotiques robustes à l’identification. Ces méthodes, même si elles constituent une amélioration notable par rapport aux outils traditionnels, demeurent approximatives. Les séries chronologiques macroéconomiques sont assez courtes. Par conséquent, la théorie asymptotique même robuste à l’identification, offre une solution non concluante.
Les méthodes disponibles en économétrie financière buttent encore sur l’obstacle engendré par un grand nombre d’actifs ou de portefeuilles (n), d’une part, et un grand nombre de facteurs de risque (k), d’autre part. En effet, passant en revue un grand nombre d’études, Harvey, Liu et Zhu (2013) répertorient 314 facteurs différents que la discipline considère plus ou moins pertinents. La performance empirique des modèles plus parcimonieux, par exemple ceux basés sur la consommation ou, sur le plan statistique, sur les moments généralisés, n’est guère satisfaisante (voir Stock et Wright, 2000; Stock, Wright et Yogo, 2002; Kleibergen, 2009; Lettau et Ludvigson, 2009). C’est pourquoi la mise au point et l’application de méthodes exactes quel que soit n et/ou k constituent des objectifs de recherche valables et intéressants.
Parties annexes
Remerciements
Je remercie Marie-Claude Beaulieu, Jean-Thomas Bernard, Jean-Marie Dufour et Maral Kichian, pour leur collaboration soutenue et nos interactions constructives et instructives.
Notes
-
[1]
Voir Mavroeidis (2004, 2005, 2010); Beaulieu, Dufour et Khalaf (2005, 2007, 2009, 2010, 2013, 2014); Dufour, Khalaf et Kichian (2006, 2010, 2013); Kleibergen (2009); Kleibergen et Mavroeidis (2009); Guerron-Quintana, Inoue et Kilian (2013); Khalaf et Schaller (2013); Kleibergen et Zhan (2013); Gospodinov, Kan et Robotti (2013).
-
[2]
« Information complète » versus « limitée » se traduit en anglais par « full » versus « limited » information.
-
[3]
La méthode originellement proposée par Anderson et Rubin (1949) porte sur un modèle linéaire i.i.d. gaussien.
Bibliographie
- Anderson, T. W. et H. Rubin (1949), « Estimation of the Parameters of a Single Equation in a Complete System of Stochastic Equations », Annals of Mathematical Statistics, 20 : 46-63.
- Barone-Adesi, G., P. Gagliardini et G. Urga (2004), « Testing Asset Pricing Models with Coskewness », Journal of Business and Economic Statistics, 22 : 474-485.
- Beaulieu, M.-C., J.-M. Dufour et L. Khalaf (2005), « Exact Multivariate Tests of Asset Pricing Models with Stable Asymmetric Distributions », in Breton, M. et H. Ben Ameur (éds), Numerical Methods in Finance, Kluwer, Dordrecht, The Netherlands.
- Beaulieu, M.-C., J.-M. Dufour et L. Khalaf (2007), « Multivariate Tests of Mean-Variance Efficiency with Possibly non-Gaussian Errors: an Exact Simulation-Based Approach »,Journal of Business and Economic Statistics, 25 : 398-410.
- Beaulieu, M.-C., J.-M. Dufour et L. Khalaf (2009), « Testing Three-Moment Based Asset Pricing Models: an Exact non-Gaussian Multivariate Regression Approach »,Computational Statistics and Data Analysis, 53 : 2008-2021.
- Beaulieu, M.-C., J.-M. Dufour et L. Khalaf (2010), « Multifactor Models, Spanning and Heavy-Tailed Distributions: A Multi-Factor Finite Sample Analysis », Journal of Empirical Finance, 17 : 763-782.
- Beaulieu, M.-C., J.-M. Dufour et L. Khalaf (2013), « Identification-Robust Estimation and Testing of the Zero-Beta CAPM », The Review of Economic Studies, 80(3) : 892-924.
- Beaulieu, M.-C., J.-M. Dufour et L. Khalaf (2014), « Inference in Structural Multivariate Factor Models with Rank Restrictions: Factor Proliferation and Weak Identification », Mimeo. Université Laval, McGill University et Carleton University.
- Beaulieu, M.-C., M.-H. Gagnon et L. Khalaf (2014), « Less is More: Identification Robust Inference from International Asset Pricing Models », Mimeo. Université Laval et Carleton University.
- Black, F. (1972), « Capital Market Equilibrium with Restricted Borrowing »,Journal of Business, 45 : 444-454.
- Blanchard, O. et J. Gali (2007), « Real Wage Rigidities and the New Keynesian Model »,Journal of Money, Credit and Banking, 39 : 35-65.
- Blanchard, O. et J. Gali (2010), « Labor Markets Friction and Monetary Policy: A New Keynesian Model with Unemployment », American Economic Journal – Macroeconomics, 2 : 1-30.
- Canova, F. et L. Sala (2009), « Back to Square One: Identification Issues in DSGE Models »,Journal of Monetary Economics, 56 : 431-449.
- Carhart, M. M. (1997), « On Persistence in Mutual Fund Performance », Journal of Finance, 52 : 57-82.
- Clarida, R., J. Gal et M. Gertler (1999), « The Science of Monetary Policy: A New Keynesian Perspective », Journal of Economic Literature, 37 : 1661-1707.
- Cochrane, J. H. (2011), « Determinacy and Identification with Taylor Rules »,Journal of Political Economy, 119 : 565-615.
- Consolo, A., C. Favero et A. Paccagnini (2009), « On the Statistical Identification of DSGE Models », Journal of Econometrics, 150 : 99-115.
- Del Negro, M., F. Schorfheide, F. Smets et R. Wouters (2007), « On the Fit of New Keynesian Models », Journal of Business and Economic Statistics, 25 : 123-143.
- Dufour, J.-M. (1997), « Some Impossibility Theorems in Econometrics with Applications to Structural and Dynamic Models », Econometrica, 65 : 1365-1389.
- Dufour, J.-M. (2001), « Logique et tests d’hypothèses: réflexions sur les problèmes mal posés en économétrie », L’Actualité économique, 77 : 171-190.
- Dufour, J.-M. (2003), « Identification, Weak Instruments and Statistical Inference in Econometrics », Canadian Journal of Economics, 36 : 767-808.
- Dufour, J.-M. (2006), « Monte Carlo Tests with Nuisance Parameters: A General Approach to Finite Sample Inference and Nonstandard Asymptotics in Econometrics », Journal of Econometrics, 133 : 443-478.
- Dufour, J.-M, L. Khalaf et M. Kichian (2006), « Inflation Dynamics and the New Keynesian Phillips Curve: An Identification Robust Econometric Analysis », Journal of Economic Dynamic and Control, 30 : 1707-1728.
- Dufour, J.-M., L. Khalaf et M. Kichian (2010), « Estimation Uncertainty in Structural Inflation Models with Real Wage Rigidities »,Computational Statistics and Data Analysis, 54 : 2554-2561.
- Dufour, J.-M., L. Khalaf et M. Kichian (2013), « Identification-Robust Analysis of DSGE and Structural Macroeconomic Models », Journal of Monetary Economics, 60 : 340-350.
- Eichenbaum, M. et J. Fisher (2007), « Estimating the Frequency of Price Re-optimization in Calvo-Style Models », Journal of Monetary Economics, 54 : 2032-2047.
- Fama, E. F. et K. R. French (1992), « The Cross-Section of Expected Stock Returns »,Journal of Finance, 47 : 427-465.
- Fama, E. F. et K. R. French (1993), « Common Risk Factors in the Returns on Stocks and Bonds », Journal of Financial Economics, 33 : 3-56.
- Fama, E. F. et K. R. French (1995), « Size and Book-to-Market Factors in Earnings and Returns », The Journal of Finance, 50 : 131-155.
- Fama, E. F. et K. R. French (1996), « Multifactor Explanation of Asset Pricing Anomalies », Journal of Finance, 51 : 55-84.
- Fama, E. F. et K. R. French (2004), « The Capital Asset Pricing Model: Theory and Evidence », Journal of Economic Perspectives, 18 : 25-46.
- Fama, E. F. et J. MacBeth (1973), « Risk, Return, and Equilibrium: Empirical Tests », Journal of Political Economy, 71 : 607-636.
- Fernandez-Villaverde, J., J. Rubio-Ramirez, T. Sargent et M. Watson (2007), « ABCs (and Ds) of Understanding VARs », The American Economic Review, 97 : 1021-1026.
- Gibbons, M., S. Ross et J. Shanken (1989), « A Test of the Efficiency of a Given Portfolio », Econometrica, 57 : 1121-1152.
- Gospodinov, N., R. Kan et C. Robotti (2013), « Robust Inference in Linear Asset Pricing Models », Rotman School of Management Working paper no. 2179620.
- Guerron-Quintana, P. A., A. Inoue et L. Kilian (2013), « Frequentist Inference in Weakly Identified DSGE »,Quantitative Economics, 4 : 197-229.
- Harvey, C. R., Y. Liu et H. Zhu (2013), « ... and the Cross-Section of Expected Returns », Working paper, Duke University.
- Iskrev, N. (2010), « Local Identification in DSGE Models »,Journal of Monetary Economics, 57 : 189-202.
- Kan, R. et C. Zhang (1999a), « GMM Tests of Stochastic Discount Factor Models with Useless Factors », Journal of Financial Economics, 54 : 103-127.
- Kan, R. et C. Zhang (1999b), « Two-Pass Tests of Asset Pricing Models with Useless Factors », Journal of Finance, 54 : 204-235.
- Kandel, S. et R. F. Stambaugh (1989), « A Mean-Variance Framework for Tests of Asset Pricing Models »,The Review of Financial Studies, 2 : 125-156.
- Khalaf, L. et H. Schaller (2013), « How Fama-MacBeth Can Go Wrong – and an Informative Solution », Working paper, Carleton University.
- Kleibergen, F. (2009), « Tests of Risk Premia in Linear Factor Models », Journal of Econometrics, 149 : 149-173.
- Kleibergen, F. et S. Mavroeidis (2009), « Weak Instrument Robust Tests in GMM and the New Keynesian Phillips Curve », Journal of Business and Economic Statistics, 27 : 293-311.
- Kleibergen, F. et Z. Zhan (2013), « Unexplained Factors and Their Effects on Second-pass R-squared’s and t-tests », Working paper, Brown University.
- Komunjer, I. et S. Ng (2011), « Dynamic Identification of DSGE Models », Econometrica, 79 : 1995-2032.
- Kraus, A. et R. Litzenberger (1976), « Skewness Preference and the Valuation of Risk Assets », Journal of Finance, 31 : 1085-1100.
- Lettau, M. et S. C. Ludvigson (2009), « Euler Equation Errors’ », Review of Economic Dynamics, 12 : 255-283.
- Lewellen, J., S. Nagel et J. Shanken (2010), « A Skeptical Appraisal of Asset-Pricing Tests », Journal of Financial Economics, 96 : 175-194.
- Linde, J. (2005), « Estimating New Keynesian Phillips Curves: A Full Information Maximum Likelihood Approach », Journal of Monetary Economics, 52 : 1135-1149.
- Malinvaud, E. (1997), « L’économétrie dans l’élaboration théorique et l’étude des politiques », L’Actualité économique, 73 : 11-25.
- Mavroeidis, S. (2004), « Weak Identification of Forward-Looking Models in Monetary Economics », Oxford Bulletin of Economics and Statistics, 66 : 609-635.
- Mavroeidis, S. (2005), « Identification Issues in Forward-Looking Models Estimated by GMM, with an Application to the Phillips Curve », Journal of Money Credit and Banking, 37 : 421-448.
- Mavroeidis, S. (2010), « Monetary Policy Rules and Macroeconomic Stability: Some New Evidence », American Economic Review, 100 : 491-503.
- Samuelson, P. (1967), « On Multivariate Tests of the Capital Asset Pricing Model », Journal of Financial and Quantitative Analysis, 2 : 107-122.
- Sentana, E. (2009), « The Econometrics of Mean-Variance Efficiency Tests: A Survey », Econometrics Journal, 12 : C65-C101.
- Shanken, J. (1985), « Multivariate Tests of the Zero-Beta CAPM », Journal of Financial Economics, 14 : 327-348.
- Shanken, J. (1992), « On the Estimation of Beta-Pricing Models », Review of Financial Studies, 5 : 1-34.
- Shanken, J. (1996). « Statistical Methods in Tests of Portfolio Efficiency: A Synthesis » in G. S. Maddala et C. R. Rao (éds), Handbook of Statistics 14: Statistical Methods in Finance, North-Holland, Amsterdam, p. 693-711.
- Shanken, J. et G. Zhou (2007), « Estimating and Testing Beta Pricing Models: Alternative Methods and their Performance in Simulations », Journal of Financial Economics, 84 : 40-86.
- Stock, J. H. (2010), « The Other Transformation in Econometric Practice: Robust Tools for Inference », Journal of Economic Perspectives, 24 : 83-94.
- Stock, J. H. et J. H. Wright (2000), « GMM with Weak Identification », Econometrica, 68 : 1097-1126.
- Stock, J. H., J. H. Wright et M. Yogo (2002), « A Survey of Weak Instruments and Weak Identification in Generalized Method of Moments », Journal of Business and Economic Statistics, 20 : 518-529.