Volume 80, numéro 2-3, juin–septembre 2004 Hommage à Marcel Dagenais Sous la direction de Bryan Campbell
Sommaire (15 articles)
Articles
-
Les firmes canadiennes répondent-elles aux incitations fiscales à la recherche-développement?
-
Évaluation de critères d’information pour les modèles de séries chronologiques
John W. Galbraith et Victoria Zinde-Walsh
p. 207–227
RésuméFR :
Il existe plusieurs critères d’information dont le but est de faciliter la sélection du modèle statistique représentant le mieux possible la réalité. Ces critères s’appliquent notamment au cas des modèles de séries chronologiques à une seule variable. La théorie asymptotique peut être utilisée pour faire un choix entre ces critères. Par exemple, si le modèle possède un ordre authentique, il peut être démontré que certains critères sont fortement convergents pour cet ordre. Historiquement, l’estimation en échantillon fini se base sur la sélection d’un ordre unique, même si plusieurs auteurs reconnaissent l’importance du cas où il n’existe pas de vrai ordre fini. Nous proposons ici un survol de la littérature sur les critères d’information et sur leur comparaison asymptotique et en échantillons finis. Nous présentons également quelques comparaisons de critères en échantillons finis en ne prenant pas pour acquis un ordre authentique au modèle. Nous utilisons alors une mesure de distance dans le but d’évaluer les performances de divers critères dans la sélection de modèles simulés. Cette mesure nous permet de juger l’exactitude de la sélection de l’ordre des modèles résultant de l’utilisation des critères (la sélection non optimale) par rapport à la sélection de l’ordre des modèles simulés (la sélection optimale). Ceci n’est pas possible dans le cas où l’on assume une forme vraie par rapport à laquelle on compare notre modèle.
-
Détection non paramétrique de sauts dans la volatilité des marchés financiers
Benoit Perron
p. 229–251
RésuméFR :
Des études récentes suggèrent que la variance conditionnelle des rendements financiers est sujette à des sauts. Ce papier étend une procédure non paramétrique de détection de sauts développée par Delgado et Hidalgo (2000) à la détection de sauts dans la variance conditionnelle. Les résultats de simulation démontrent que cette procédure estime de façon raisonnable le nombre de sauts ainsi que leurs emplacements. L’application de cette procédure aux rendements journaliers sur l’indice S&P 500 révèle la présence de plusieurs sauts dans la variance conditionnelle.
EN :
Recent work suggests that the conditional variance of financial returns may exhibit sudden jumps. This paper extends a non-parametric procedure to detect discontinuities in otherwise continuous functions of a random variable developed by Delgado and Hidalgo (1996) to the conditional variance. Simulation results show that the procedure provides reasonable estimates of the number and location of jumps. This procedure detects several jumps in the conditional variance of daily returns on the S&P 500 index.
-
Modèle Bayésien de tarification de l’assurance des flottes de véhicules
Jean-François Angers, Denise Desjardins et Georges Dionne
p. 253–303
RésuméFR :
Nous proposons un modèle paramétrique de tarification de l’assurance de véhicules routiers appartenant à une flotte. Les tables de primes qui y sont présentées tiennent compte des accidents passés des véhicules, des caractéristiques observables des véhicules et des flottes et des infractions au Code de la sécurité routière des conducteurs et des transporteurs. De plus, les primes sont ajustées en fonction des accidents accumulés par les flottes dans le temps. Il s’agit d’un modèle qui prend directement en compte des changements explicites des différentes composantes des probabilités d’accidents. Il représente une extension aux modèles d’assurance automobile de type bonus-malus pour les primes individuelles (Lemaire, 1985 ; Dionne et Vanasse, 1989 et 1992 ; Pinquet, 1997 et 1998 ; Frangos et Vrontos, 2001 ; Purcaru et Denuit, 2003). L’extension ajoute un effet flotte à l’effet véhicule pour tenir compte des caractéristiques ou des actions non observables des transporteurs sur les taux d’accidents des camions. Cette forme de tarification comporte plusieurs avantages. Elle permet de visualiser l’impact des comportements des propriétaires des flottes et des conducteurs des véhicules sur les taux d’accidents prédits et, par conséquent, sur les primes. Elle mesure l’influence des infractions et des accidents accumulés sur les primes d’assurance mais d’une façon différente. En effet, les effets des infractions sont obtenus via la composante de régression, alors que les effets des accidents proviennent des résidus non expliqués de la régression sur les accidents des camions via un modèle bayésien de tarification.
EN :
We are proposing a parametric model to rate insurance for vehicles belonging to a fleet. The tables of premiums presented take into account past vehicle accidents, observable characteristics of the vehicles and fleets, and violations of the road-safety code committed by drivers and carriers. The premiums are also adjusted according to accidents accumulated by the fleets over time. The model proposed accounts directly for explicit changes in the various components of the probability of accidents. It represents an extension of bonus-malus-type automobile insurance models for individual premiums (Lemaire, 1985; Dionne and Vanasse, 1989 and 1992; Pinquet, 1997 and 1998; Frangos and Vrontos, 2001; Purcaru and Denuit, 2003). The extension adds a fleet effect to the vehicle effect so as to account for the impact that the unobservable characteristics or actions of carriers can have on truck accident rates. This form of rating makes it possible to visualize what impact the behaviors of owners and drivers can have on the predicted rate of accidents and, consequently, on premiums.
-
Modèles économétriques de remboursement de prêts étudiants au Canada
Marie Connolly, Claude Montmarquette et Ali Béjaoui
p. 305–339
RésuméFR :
Six mois après avoir mis fin à leurs études, complétées avec succès ou non, les ex-étudiants sont tenus de rembourser leurs prêts d’études. Une majorité d’entre eux rembourseront la totalité de leurs prêts sur une période de 10 ans. D’autres connaîtront des difficultés à respecter leur engagement. Dans cette étude nous profitons d’une base exceptionnelle de données individuelles sur les prêts d’études au Canada pour étudier les déterminants des remboursements ou non des prêts et la durée avant le remboursement complet. Les résultats économétriques montrent l’importance de terminer ses études dans les temps requis à la fois pour éviter de faire défaut et aussi pour accélérer la période de remboursement. Une politique à envisager serait de gommer une partie des prêts lorsque l’étudiant complète ses études dans les temps requis. L’autre résultat est que le programme du report des intérêts n’a pas semblé très efficace pour faciliter le remboursement des prêts d’études pour la cohorte 1990-1991 étudiée. Finalement, un programme trop généreux de prêts d’études sans mise en garde sur les risques encourus par les étudiants d’investir dans certains programmes, notamment ceux opérés par le secteur privé, a des effets importants non seulement sur la pérennité du programme des prêts, mais aussi sur les mauvaises décisions de la part des étudiants dans leur choix d’études.
EN :
Six months after a student ceases being enrolled full-time in an educational institution, a loan contracted with the Canada student loans program is said to be consolidated and its repayment is expected. Many ex-students will repay their loan in total (capital and interest) within a ten-year period. However, a non-negligible proportion of borrowers will experience difficulty in the repayment of their loans. We are able to shed a new light on these issues because we have access to unique data to estimate econometric models of the determinants of interest relief and claims (defaults) as well as duration models for the repayment of student loans. We found that finishing the program supported by a loan is essential to avoiding default. Therefore, it may be worth considering policies that will reward anyone who completes his or her program. On the other hand, too much flexibility in access to loans might encourage experiments that could turn disastrous for the student and the national loan program. A loan program should also come with some information on the risk involved for the student before he or she invests in a particular field or program. One particular concern is the relatively high level of default for students attending private schools. Relatively easy access to loans could be an invitation for private institutions to capitalize on that fact with various educational programs having little bearing on the reality of the labour market. Eventually serious institutions will establish a reputation, but for some students it will be too late. Another result concerns the interest relief measure that seems not to have played its role of helping the 1990-1991 cohort of students to pass through difficult times.
-
Le problème des données longitudinales incomplètes : une nouvelle approche
Marie-France Paquet et Denis Bolduc
p. 341–361
RésuméFR :
Dans ce travail, nous suggérons l’utilisation de l’échantillonnage de Gibbs combiné à l’augmentation des données pour estimer des modèles à données longitudinales incomplètes, qui dans le cas extrême où l’échantillon est composé de coupes transversales indépendantes, correspond au cas de modèle de type pseudo-panel. Cette idée peut être appliquée dans plusieurs contextes : modèles statiques ou dynamiques de type linéaires, non linéaires, de choix discrets, avec régresseurs endogènes, etc. Pour présenter la méthode proposée, nous l’appliquons dans le cas d’un modèle linéaire à variable dépendante continue. Comme point de comparaison, nous utilisons les estimations par l’approche conventionnelle dite de pseudo-panel basée sur des moyennes calculées sur des cohortes. La technique proposée dans ce travail donne des résultats supérieurs, en terme d’efficacité, à la technique conventionnelle. Cette conclusion demeure valide quelle que soit la proportion des observations manquantes.
EN :
In this paper, we suggest to use a Gibbs sampler with data augmentation to estimate models based on incomplete longitudinal data which, in the extreme case where the sample is composed of independent cross-sections, corresponds to a situation that normally calls for pseudo-panel modeling. The idea suggested here can be applied in several contexts: static and dynamic models linear or nonlinear type, discrete choice models, models with endogenous regressors, etc. To present the suggested method, we apply it to a linear model with continuous dependent variable. For comparison purpose, we also use the conventional pseudo-panel approach which is based on averages computed on cohorts. In terms of efficiency, the technique suggested in this work gives better results than the conventional pseudo-panel technique. This conclusion remains valid for any proportion of missing observations in the sample.
-
Un modèle économétrique dynamique de l’abandon scolaire au Québec et en Ontario
Christian Belzil
p. 363–381
RésuméFR :
Dans cette étude, j’analyse les raisons qui expliquent pourquoi le taux d’abandon scolaire québécois est plus élevé que la moyenne nationale et, en particulier, beaucoup plus élevé qu’en Ontario (la province auquelle le Québec se compare tout naturellement). Le modèle économétrique est construit autour de groupes de trois facteurs fondamentaux ; le niveau d’éducation des parents et / ou d’autres caractéristiques familiales, le sexe ainsi que l’hétérogénéité non observée et permet de déterminer jusqu’à quel point le différentiel positif entre le Québec et l’Ontario est d’un niveau normalement attendu, étant donné d’une part les différences de richesse entre les deux provinces et d’autre part la forte corrélation entre l’éducation des parents et des enfants (mesurée dans beaucoup de pays). Les résultats indiquent qu’au Québec, tout comme en Ontario, l’incidence de l’abandon scolaire décroît avec le niveau d’éducation des parents et est moins élevé chez ceux qui ont été élevés dans une famille unie. Au Québec, et contrairement à l’Ontario, l’incidence de l’abandon scolaire est beaucoup plus élevée chez les garçons. Le plus haut taux d’abandon scolaire chez les garçons semble indépendant de la composition familiale. Une analyse des salaires et revenus des jeunes décrocheurs semblent indiquer qu’ils ne sont pas pénalisés lorsqu’on les compare avec ceux qui sont entrés sur le marché du travail après avoir complété leur secondaire. Il semble donc que le faible taux de rendement associé à la diplômation, combiné au niveau relativement élevé du salaire minimum québécois, contribuent à maintenir le taux de décrochage québécois à un niveau particulièrement élevé.
EN :
In this paper, I investigate the Quebec-Ontario school drop-out rate differential using a dynamic model of schooling attainment. The model stresses three distinct set of factors, parental education (or other family background variables), gender differences and unobserved (to the econometrician) factors. In both Quebec and Ontario, the school drop out rate is found to decrease with parental education. However, the male-female differential in the incidence of school drop-out in Quebec is much higher than it is in Ontario. Furthermore, this higher incidence is not explained by interactions between gender and family background. Finally, an econometric analysis of post schooling wages indicates that, when compared to those who have completed high school only, school drop outs are not penalized for dropping out.
-
Réactions des contribuables aux variations des taux marginaux d’impôt : une étude portant sur des données de panel au Canada
Robert Gagné, Jean-François Nadeau et François Vaillancourt
p. 383–404
RésuméFR :
Cette étude porte sur l’évaluation de l’élasticité des revenus déclarés relativement au taux marginaux d’impôt sur le revenu au Canada. L’étude s’appuie sur des données provinciales agrégées de 1972 à 1996. Le modèle économétrique permet d’expliquer conjointement les parts de trois classes de revenus : 50 000 $ - 100 000 $, 100 000 $ - 150 000 $ et 150 000 $ et plus. Ce modèle tient compte à la fois des effets spécifiques aux provinces et au temps. De plus, la spécification utilisée prend en considération les conditions macroéconomiques générales (PIB et taux de chômage) ainsi que la distribution sous-jacente des revenus (coefficient de Gini). Par ailleurs, les résultats d’un modèle expliquant la part du nombre de contribuables dans chaque classe de revenus sont également examinés. Les résultats montrent qu’au cours de la dernière partie de la période étudiée (soit de 1988 à 1996), les contribuables appartenant aux classes de revenus les plus élevés (100 000 $ et plus) étaient sensibles aux variations des taux marginaux d’impôt à un point tel que toute augmentation de ces taux entraînait une baisse plus que proportionnelle des revenus déclarés et, par conséquent, une diminution des revenus de l’État. Les résultats complémentaires provenant du modèle portant sur le nombre de contribuables (par classe de revenus) démontrent que ces baisses de revenus s’expliquent par la migration des contribuables vers des niveaux de revenus (et de taxation) plus faibles.
EN :
Taxpayers may respond to changes in income tax rates in several manners. One way to classify them is to distinguish between behavioural changes (changes in labour supply, changes in the weights of the different types of labour income, changes in saving behaviour, etc.) and income reporting changes (timing, evasion, ...). Consequently, there might not be a perfectly proportional relationship between tax rate changes and tax revenues. This paper presents a methodology for the estimation of 1) income and 2) number of taxpayer elasticities with respect to marginal income tax rates. The model considers shares of total income and number of taxpayer for three income classes: medium ($50,000 - $100,000), high ($100,000 - $150,000) and highest ($150,000 and more) for a panel of Canadian provinces over the 1972-1996 period and for three sub-periods (1972-1976, 1977-1987, 1988-1996). The results show significant responses to tax rate changes from taxpayers in the high and highest income classes at the end of the period under study (1988-1996). Results obtained from the number of taxpayer share model also indicate that a significant part of the response of taxpayers to tax rate changes is explained by taxpayers moving to lower income classes.
-
Une condition d’invariance du modèle de régression à coefficients aléatoires
Gordon Fisher
p. 405–419
RésuméFR :
Cet article développe une condition d’invariance du modèle de régression à coefficients aléatoires (RCA) et de cette façon permet : (i) d’étendre les résultats de Rao (1963, 1967)”; (ii) de fournir une nouvelle démonstration de l’égalité des estimateurs des moindres carrés généralisés directs et ceux en deux étapes du modèle RCA”; et (iii) de rectifier une proposition de McAleer (1992) pour les modèles mixtes.
EN :
This paper develops an invariance condition for the random coefficients regression (RCR) model and thereby: (i) exends the results originally proposed by Rao (1965, 1967); (ii) provides a new proof of the equality of the direct and two-step estimators of the RCR model; and (iii) corrects a result claimed in McAleer (1992) for mixed models.
-
La persistance des chocs au Canada, 1870-1996
Malika Hamdad et Tarek M. Harchaoui
p. 421–437
RésuméFR :
Ce travail examine la persistance des chocs de la production agrégée dans une perspective multisectorielle. Cette approche permet de décomposer la persistance des chocs de la production en deux composantes : la première due à des chocs d’origine macroéconomique explicitement identifiés et la seconde à des chocs « autres », probablement d’origine sectorielle. Ce cadre d’analyse a été appliqué à des séries historiques sur la production sectorielle de l’économie canadienne pour les périodes d’avant-guerre et d’après-guerre, pour lesquelles les chocs macroéconomiques explicitement identifiés ont été, respectivement, le choc du blé de 1890 et le choc pétrolier de 1973. Les résultats présentés dans ce papier ont a) confirmé dans le contexte canadien que l’approche désagrégée fournit des estimations plus faibles et résolument plus fiables de la mesure de la persistance que ceux obtenus au moyen d’une approche agrégée univariée ; b) permis de montrer que les effets des chocs ont eu tendance à devenir légèrement plus persistants à travers le temps ; et c) mesuré le degré auquel le choc du blé a contribué à provoquer une déviation permanente sur la production de l’économie canadienne et ainsi corroborer la thèse traditionaliste de l’histoire économique du Canada.
EN :
The persistence of shocks to aggregate output in Canada is investigated under a multisectoral framework. This approach allows for a decomposition of the persistent effect of output into macro and “other” possibly sector-specific shocks. The framework makes the distinction between the pre-war and post-war eras and their corresponding macro shocks, namely the 1896 wheat boom and the 1973 oil shock. The results obtained by our investigation are threefold: a) they reveal that the point estimate of the aggregate persistence measure based on this disaggregated framework is lower and considerably more precisely estimated than the estimate based on the aggregate univariate models; b) they indicate that shocks tend to be slightly more persistent in the post-war period in comparison with the pre-war era, and c) they indicate that the wheat boom has indeed created a major and permanent deviation to the aggregate output, thereby supporting the traditional view of the Canadian economic history.
-
Stratégies de recherche, contraintes spatiales et hétérogénéité des transitions vers l’emploi : estimation économétrique d’un modèle structurel de recherche
Sandra Cavaco, Jean-Yves Lesueur, Mareva Sabatier et Jean-Yves Lesueur
p. 439–464
RésuméFR :
Dans cet article, deux stratégies de recherche d’emploi concurrentes sont introduites comme facteurs explicatifs du taux de sortie du chômage. Le modèle de prospection en équilibre partiel construit oppose une première stratégie consistant à limiter la zone de recherche à la zone de compétence de l’agence publique pour l’emploi à une stratégie alternative, plus coûteuse, qui permet, à travers la mobilisation des procédures marchandes et du réseau social, d’élargir l’horizon spatial de la recherche. L’introduction de cette dualité des stratégies de recherche dans le cadre d’un modèle de recherche à environnement stationnaire fait apparaître à l’équilibre des effets théoriques ambigus sur la durée d’accès à l’emploi. L’estimation économétrique de la fonction de vraisemblance associée à l’expression du taux de sortie du chômage vise à lever cette ambiguité. Réalisée en deux étapes afin de contrôler la sélectivité du choix des stratégies de prospection, notamment l’effet des contraintes spatiales, l’estimation économétrique des taux de sortie du chômage contrôle également l’hétérogénéité des transitions individuelles vers l’emploi et la présence potentielle d’hétérogénéité inobservable. Les résultats économétriques concluent alors à l’endogénéité des stratégies de prospection et à leur influence discriminante sur les durées d’accès aux différents types emplois.
EN :
This paper provides new developments in job search theory, incorporating a duality in search strategies which compose the offer rate. Two strategies are modelled. A first one, called passive strategy, consists in searching exclusively in the spatial area of the public employment agency. The alternative strategy allows to extend search area, using other media, like networks or advertisements. Introducing this duality leads us to ambiguous effects of search strategies on the theoretical exit rate. A micro-econometric estimation allows us to overcome this difficulty. A two-step method is chosen in order to, first, study the strategies’ selection rule and, second, to take into account multiple destinations after unemployment and possible unobserved heterogeneity in the duration model. Results highlight the selectivity of the search strategies’ choice, in particular the role of spatial constraints. Besides, they conclude to discriminate impacts of job search strategies on exit rates, according to the job found.
-
Modélisation bayésienne non linéaire du taux d’intérêt de court terme américain : l’aide des outils non paramétriques
Michel Lubrano
p. 465–499
RésuméFR :
Cet article a pour objet l’investigation des modèles empiriques de taux d’intérêt de court terme sur données américaines. Il utilise une combinaison de méthodes classiques non paramétriques et de méthodes bayésiennes paramétriques. La forme des fonctions de dérive et de volatilité du modèle discrétisé est tout d’abord examinée au moyen d’une analyse non paramétrique préliminaire. Le texte développe ensuite une méthode bayésienne de choix de modèles qui est basée sur la capacité d’un modèle à minimiser la distance de Hellinger entre la densité prédictive a posteriori du modèle discrétisé et la densité de l’échantillon observé. Une discrétisation du modèle en temps continu est estimée en utilisant différentes variantes paramétriques allant du modèle à variance constante jusqu’à différents types de modèles de switching suggérés par l’analyse non paramétrique préliminaire.
EN :
This paper investigates empirical models of the US short term interest rate. It make use of a combination of classical non-parametric methods and of parametric bayesian methods. In a first step, it investigates the shape of drift and volatility functions using non parametric tools. The paper then develops a bayesian approach to model selection based on the minimisation of the Hellinger distance between the posterior predictive density of a discretised model and a non-parametric estimation of the data density. A discretisation of various parametric formulations are then estimated, ranging between constant elasticity of variance to switching regimes.
-
Tests multiples simulés et tests de normalité basés sur plusieurs moments dans les modèles de régression
Jean-Marie Dufour, Abdeljelil Farhat, Lynda Khalaf et Jean-Marie Dufour
p. 501–522
RésuméFR :
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte-Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte-Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
EN :
This paper illustrates the usefulness of resampling-based methods in the context of multiple (simultaneous) tests, with emphasis on econometric applications. Economic theory often suggests joint (or simultaneous) hypotheses on econometric models; consequently, the problem of evaluating joint rejection probabilities arises frequently in econometrics and statistics. In this regard, it is well known that ignoring the joint nature of multiple hypotheses may lead to serious test size distortions. Whereas most available multiple test techniques are conservative in the presence of non-independent statistics, our proposed tests provably achieve size control. Specifically, we use the Monte-Carlo (MC) test technique to extend several well known combination methods to the non-independent statistics contexts. We first cast the multiple test problem into a unified statistical framework which: (i) serves to show how exact global size control is achieved through the MC test method, and (ii) yields a number of superior tests previously not considered. Secondly, we provide a review of relevant available results. Finally, we illustrate the applicability of our proposed procedure to the problem of moments-based normality tests. For this problem, we propose an exact variant of Kiefer and Salmon’s (1983) test, and an alternative combination method which exploits the well known Fisher-Pearson procedure. Our simulation study reveals that the latter method seems to correct for the problem of test biases against platikurtic alternatives. In general, our results show that concrete and non-spurious power gains (over standard combination methods) can be achieved through our multiple Monte-Carlo test approach.
-
Filtres pour l’analyse courante
Simon Van Norden
p. 523–546
RésuméFR :
L’auteur montre comment les techniques actuelles de filtrage passe-bande et leurs prolongements peuvent servir à estimer des tendances et des cycles courants. Ces techniques donnent des estimations jugées « optimales » compte tenu des données disponibles. Les erreurs types s’y rattachant représentent donc la borne inférieure de la marge d’erreur qui serait associée aux résultats produits par d’autres techniques univariées. Dans cette étude, l’auteur examine les applications de ce filtre aux problèmes que pose l’estimation de la croissance de la productivité, de l’inflation de base et de l’écart de production observés.
EN :
This paper shows how existing band-pass filtering techniques and their extension can be applied to the common current-analysis problem of estimating current trends or cycles. These techniques give estimates that are “optimal” given the available data, so their standard errors represent a lower bound on what can be achieved with other univariate techniques. Applications to the problems of estimating current trend productivity growth, core inflation, and output gaps are considered.