Volume 96, Number 4, December 2020
Table of contents (19 articles)
-
50 ANNÉES DE L’ACTUALITÉ ÉCONOMIQUE : UN FLORILÈGE DE SES MEILLEURS ARTICLES
-
CLASSEMENT (PAR ORDRE ALPHABÉTIQUE) DES 14 ARTICLES RETENUS POUR LE NUMÉRO COMMÉMORATIF DE L’ACTUALITÉ ÉCONOMIQUE
-
LISTE DES RÉDACTEURS EN CHEF DE L’ACTUALITÉ ÉCONOMIQUE
-
LISTE DES CONFÉRENCES FRANÇOIS-ALBERT ANGERS
-
RAPPORT DU DIRECTEUR DE L’ACTUALITÉ ÉCONOMIQUE
Articles
-
L’économie des organisations : mythes et réalités
-
SUR L’ESTIMATION D’UN SYSTÈME COMPLET DE DEMANDE SOUS RATIONNEMENTS QUANTITATIFS
-
Inégalité et redistribution du revenu, avec une application au Canada
Jean-Yves Duclos and Martin Tabi
pp. 517–544
AbstractFR:
L’utilité des courbes de Lorenz pour l’analyse de la répartition des revenus est bien connue depuis l’article influent d’Atkinson (1970). Nous indiquons dans le présent article comment l’usage combiné de ces courbes de Lorenz et des courbes de concentration des revenus, des impôts ou des transferts permet de résumer facilement et intuitivement l’impact de l’État sur la distribution des revenus. Nous nous intéressons plus particulièrement à la redistribution des revenus ainsi qu’à l’équité verticale et l’iniquité horizontale exercées par l’impôt direct et les politiques de transferts. En appliquant des poids « éthiques » à la distance entre les courbes de Lorenz et de concentration, l’on obtient des indices synthétiques d’inégalité, de redistribution et d’équité qui peuvent être facilement décomposés en contributions individuelles des différents types d’impôts et de transferts. Ces indices représentent une généralisation et une extension de l’indice d’inégalité bien connu de Gini. Cette approche est illustrée à l’aide de la distribution et de la redistribution des revenus au Canada au cours de la dernière décennie. On confirme le résultat bien connu que l’inégalité des revenus bruts s’est accrue de 1981 à 1990 alors qu’elle a chuté pour le revenu net. La redistribution opérée par le système fiscal s’est considérablement accrue au cours de cette décennie, au prix entre autres choses d’une plus grande iniquité horizontale. Le groupe de transferts reliés à la retraite et à la vieillesse est celui qui exerce de loin le plus d’impact sur la redistribution des revenus. L’impact redistributif de l’impôt direct est quant à lui très sensible au paramètre de subjectivité éthique utilisé.
EN:
The usefulness of Lorenz curves for analysing the distribution of income is well understood since the influential article of Atkinson (1970). We show in this paper how combining Lorenz and concentration curves for incomes, taxes and transfers allows one to summarise easily and intuitively the impact of government on the distribution of income. We more particularly look at income redistribution and at the vertical and horizontal equity exerted by direct taxes and transfers. By applying "ethical weights" to the distance between the Lorenz and the concentration curves, we obtain summary indices of inequality, redistribution and equity that are easily decomposed additively into separate tax and benefit components. These indices are a generalisation of the well-known Gini index of inequality. The approach is illustrated using micro data on the distribution and the redistribution of income in Canada in the last decade. It confirms the well-known result that the inequality of gross income increased between 1981 and 1990, whereas the inequality of net income fell during the same period. The redistribution exerted by the tax and transfer system increased considerably during that period, at the cost of a higher level of horizontal inequity. Income redistribution is largely generated by the group of transfers related to retirement and old age. As for the redistributive impact of direct taxes, it is quite sensitive to the value of the ethical parameter used in computing the summary indices of equity and redistribution.
-
TESTS MULTIPLES SIMULÉS ET TESTS DE NORMALITÉ BASÉS SUR PLUSIEURS MOMENTS DANS LES MODÈLES DE RÉGRESSION
Jean-Marie Dufour, Abdeljelil Farhat and Lynda Khalaf
pp. 545–566
AbstractFR:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte-Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance fi nie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte-Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
EN:
This paper illustrates the usefulness of resampling-based methods in the context of multiple (simultaneous) tests, with emphasis on econometric applications. Economic theory often suggests joint (or simultaneous) hypotheses on econometric models; consequently, the problem of evaluating joint rejection probabilities arises frequently in econometrics and statistics. In this regard, it is well known that ignoring the joint nature of multiple hypotheses may lead to serious test size distortions. Whereas most available multiple test techniques are conservative in the presence of non-independent statistics, our proposed tests provably achieve size control. Specifi cally, we use the Monte-Carlo (MC) test technique to extend several well known combination methods to the non-independent statistics contexts. We fi rst cast the multiple test problem into a unifi ed statistical framework which: (i) serves to show how exact global size control is achieved through the MC test method, and (ii) yields a number of superior tests previously not considered. Secondly, we provide a review of relevant available results. Finally, we illustrate the applicability of our proposed procedure to the problem of moments-based normality tests. For this problem, we propose an exact variant of Kiefer and Salmon’s (1983) test, and an alternative combination method which exploits the well known Fisher-Pearson procedure. Our simulation study reveals that the latter method seems to correct for the problem of test biases against platikurtic alternatives. In general, our results show that concrete and non-spurious power gains (over standard combination methods) can be achieved through our multiple Monte-Carlo test approach.
-
La question de l’électricité au Québec durant les années trente
-
L’ÉCONOMIE DE LA PREUVE JUDICIAIRE
Claude Fluet
pp. 585–620
AbstractFR:
Cet article développe un modèle simple permettant d’analyser les dispositifs fondamentaux de la preuve judiciaire. Le survol est centré sur les notions de charge de la preuve, de présomptions légales, de norme de preuve, sur le rôle de la procédure et le pouvoir d’initiative du juge. Les règles de preuve sont analysées du point de vue des coûts de litige, du risque d’erreur judiciaire et des incitations à l’adoption de comportements socialement efficients.
EN:
The economics of judicial proof. This article develops a simple model using the economist’s tool kit to analyze the mechanism of judicial proof. The survey focuses on the notions of burden of proof, legal presumptions, standard of proof, on legal procedure and on the judge’s role during the proceedings. The rules of proof are analyzed from the point of view of litigation costs, judicial error and incentives for socially efficient behavior.
-
VALORISATION DES INVESTISSEMENTS ULTRA-LONGS ET DÉVELOPPEMENT DURABLE
Christian Gollier
pp. 621–655
AbstractFR:
En faisons-nous assez pour les générations futures? Cette question est sous-jacente à de nombreuses questions économiques actuelles, comme celles de la réduction de la dette, de la réforme des retraites, de la lutte contre le changement climatique, de la préservation des ressources naturelles, des investissements d’infrastructure ou de la fiscalité de l’épargne par exemple. Notre responsabilité sociale envers les générations futures se traduit en termes économiques par le taux d’actualisation, qui donne une valeur au futur relativement au présent, et qui détermine l’arbitrage présent/futur des agents économiques. Si on reconnaît qu’une société court-termiste utilise un taux d’actualisation trop élevé, comment déterminer le niveau désirable de ce taux? Dans cet article, je synthétise les importants développements scientifiques récents sur ce sujet. Étant donné la baisse tendancielle de nos anticipations de croissance et les fortes incertitudes sur les évolutions longues de notre société, je recommande un taux sans risque de deux fois le taux de croissance anticipé de la consommation (pour actualiser des cash flows engendrés sur les horizons inférieurs à 20 ans) à 1 % (pour des maturités au-delà de 100 ans). La prime de risque devrait aussi avoir une structure par terme, s’étalant de 1 % à court terme jusqu’à 3 % pour le long terme.
EN:
Do we do enough for the future? This question is related to many different current issues, from the reduction of sovereign debt in Europe, to the pension reform, the fight against climate change, the preservation of natural resources, the level of public investment in infrastructure, or the fiscal treatment of long-term savings for example. Our social responsibility towards future generations is decentralized through the choice of the discount rate, which determines the tradeoff between present sacrifices and future benefits. How should we define the efficient level of long-termism? In this paper, I summarize the most important evolutions in the economic analysis of this question in recent years. Given the strong uncertainties that prevail concerning the long term evolution of our society, I recommend to use a discount rate ranging from 2 times the anticipated growth rate of consumption for short time horizons, going down to 1 % for time horizons above 100 years. The systematic risk premium should also have a term structure, starting at around 1 % for short maturities to 3 % for extra-long ones.
-
Ajustement macroéconomique aux technologies multi-usages
Peter Howitt and Philippe Aghion
pp. 657–675
AbstractFR:
Cet article examine les effets macroéconomiques résultant de l’introduction de ce que Bresnahan et Trajtenberg appellent une « technologie multi-usages » (TMU) comme, par exemple, la technologie informatique. L’analyse est basée sur le principe qu’une nouvelle TMU accélère le rythme de changement technologique en créant une vague d’innovations secondaires destinées à améliorer et à atteindre le potentiel de la TMU d’origine. Cet article étudie les voies à travers lesquelles une hausse du rythme de changement technologique pourrait réduire le niveau d’activité économique mesuré avant de conduire l’économie à un niveau de croissance supérieur. Deux voies sont l’obsolescence du capital et l’absence de mesure de l’investissement de la connaissance dans les comptes nationaux. Un modèle de croissance endogène simple qui a été construit et adapté à l’économie américaine prévoit que l’obsolescence du capital est la plus significative des deux voies, et que, dans ce cas, la production sera pendant près de trois décennies inférieure à ce qu’elle aurait été sans l’introduction de la nouvelle TMU.
EN:
This paper examines the macroeconomic effects that follow from the introduction of what Bresnahan and Trajtenberg have called a "general-purpose technology" (GPT), such as the computer. The analysis is based on the idea that a new GPT accelerates the pace of technological change by spawning a wave of secondary innovations aimed at improving upon and realizing the potential of the original GPT. The paper analyzes the channels through which such an increase in the pace of technological change might reduce the measured level of economic activity for some period before it ultimately brings the economy to a higher growth path. Two such channels are capital-obsolescence and the failure to measure knowledge-investment in the national accounts. A simple endogenous growth model that was constructed and calibrated to the US economy, predicts that capital-obsolescence is the more significant of the two channels, and that through this channel, output can fall below its no-shock path for almost 3 decades after the introduction of a new GPT.
-
Nouvelles formes de réglementation
-
Choix occupationnels et offre de travail lorsque les salaires sont fonction des heures travaillées
Thomas Lemieux
pp. 691–720
AbstractFR:
Ce papier présente un modèle économétrique déterminant la décision de travailler dans une ou deux occupations différentes lorsque le salaire est fonction des heures travaillées. Le modèle est construit à partir d’un principe de base de la théorie de la demande avec contraintes de rationnement qui ne requiert pas les restrictions d’exclusions standards. L’approche économétrique est appliquée à la décision de travail dans le secteur formel et informel. Les estimations suggèrent une élasticité d’offre de travail de l’ordre de l’unité. De même elles montrent que le salaire dans le secteur informel diminue lorsque les heures travaillées dans ce secteur augmentent, tandis que le phénomène inverse se produit dans le secteur formel.
EN:
This paper develops an econometric model of the decision to work in one or two different occupations when wages depend on hours of work. The model is identified using a basic principle of demand theory with rationing constraints which does not require standard exclusion restrictions. The econometric approach is applied to the decision of working in the formal and in the informal sector. The estimates suggest standard labor supply elasticities of the order of one. The estimates also suggest that the informal sector wage declines as hours worked in that sector increase, while the opposite is true in the formal sector.
-
WILD CLUSTER BOOTSTRAP CONFIDENCE INTERVALS
James G. MacKinnon
pp. 721–743
AbstractEN:
Confidence intervals based on cluster-robust covariance matrices can be constructed in many ways. In addition to conventional intervals obtained by inverting Wald (t) tests, the paper studies intervals obtained by inverting LM tests, studentized bootstrap intervals based on the wild cluster bootstrap, and restricted bootstrap intervals obtained by inverting bootstrap Wald and LM tests. It also studies the choice of an auxiliary distribution for the wild bootstrap, a modified covariance matrix based on transforming the residuals that was proposed some years ago, and new wild bootstrap procedures based on the same idea. Some procedures perform extraordinarily well even with the number of clusters is small.
-
INSTITUTIONS ET SCOLARITÉ : LE CAS DES FRANCOPHONES AU QUÉBEC VS LES AMÉRICAINS D’ORIGINE CANADIENNE-FRANÇAISE
Daniel Parent
pp. 745–787
AbstractFR:
Environ un million de Canadiens français ont émigré vers les États-Unis entre 1865 et 1930, s’établissant majoritairement dans les États de la Nouvelle-Angleterre. À l’aide de données de recensements américains et canadiens, cette étude examine comment la scolarité et la fréquentation scolaire de leurs descendants se comparent avec ceux de Québécois francophones du même âge. Les données des recensements canadien de 1971 et américain de 1970 nous révèlent que les résidents natifs de la Nouvelle-Angleterre dont la langue maternelle était le français ont profité d’un avantage considérable sur le plan de la scolarité. J’attribue cet écart important à leur accès au système public d’éducation des États-Unis, qui n’avait pas d’équivalent au Québec jusqu’à la fin des années soixante. Ce résultat est encore plus remarquable étant donné la sélection négative présumée en regard de ceux qui quittaient le Québec et le fait que les Franco-Américains réussissaient à reproduire relativement bien les institutions d’enseignement québécoises. En examinant les recensements canadien de 2000 et américain de 2001, on constate que l’écart s’est considérablement résorbé chez les plus jeunes. En fait, contrairement à ce qui est observé en 1971, les jeunes Québécois en 2001 avaient à peu près la même scolarité et étaient au moins aussi susceptibles d’avoir atteint un niveau d’études postsecondaire que les Franco-Américains. Toutefois, ils accusent toujours un retard lorsqu’il s’agit de détenir au moins un baccalauréat. Ce renversement partiel reflète l’effet du « traitement correctif » par lequel le Québec a apporté des changements profonds à ses institutions d’enseignement, particulièrement au niveau postsecondaire, au milieu et à la fin des années soixante.
-
L’estimation de modèles avec changements structurels multiples
Pierre Perron
pp. 789–837
AbstractFR:
Cette étude considère le problème de l’estimation de modèles de régressions linéaires avec changements structurels multiples. Nous passons en revue la classe de modèles analysée par Bai et Perron (1996) et certains de leurs résultats asymptotiques. Nous discutons plus en détail un algorithme de calcul, basé sur les principes de la programmation dynamique, qui permet d’obtenir des estimations de façon très efficace même si le nombre de points de rupture est élevé. Ensuite, nous discutons du problème d’estimation de ce nombre de changements via certains critères d’information. Des résultats de simulations sont présentés pour illustrer les mérites et les défauts de ces procédures. Finalement, certains résultats empiriques mettent en évidence l’importance pratique de nos résultats.
EN:
This paper considers the problem of estimation in the linear regression model with multiple structural changes. We first survey the class of models analyzed by Bai and Perron (1996) and some of their asymptotic results. We then discuss in greater details a numerical algorithm, based on the principle of dynamic programming, that permits obtaining estimates of the break dates very efficiently even if there is a large number of changes. We also discuss issues related to the estimation of the number of breaks using information criteria. Simulation results are presented to illustrate the merits and drawbacks of such procedures. Finally, some empirical examples highlight the practical importance of our results.
-
L’ÉCONOMÉTRIE DES CONTRATS : LE RÔLE DES ARCHIVES DE PAIE, DES EXPÉRIENCES ET DES MODÈLES ÉCONOMIQUES