Abstracts
RÉSUMÉ
Nous présentons, pour des modèles de séries chronologiques, une méthode d’estimation qui tient compte de la présence d’erreurs de mesure sur les données, lorsque ces erreurs ne sont pas autocorrélées. L’approche suggérée utilise des valeurs décalées des variables indépendantes comme variables instrumentales. Nous employons l’estimateur convergent proposé par Fuller (1987) et comparons analytiquement les erreurs quadratiques moyennes de cet estimateur avec celles d’un estimateur similaire qui ne tiendrait pas compte des erreurs de mesure. Finalement, nous rapportons, à partir d’un échantillon de 150 observations, les résultats d’études de Monte Carlo sur ces deux estimateurs ainsi que sur un estimateur alternatif qui est une somme pondérée des deux premiers. Ces expériences montrent que l’estimateur alternatif semble relativement mieux se comporter. On constate également que l’inconvénient de la présence d’erreurs sur les variables n’est pas seulement de biaiser les estimateurs des coefficients ou d’accroître les erreurs quadratiques moyennes, mais également de sous-estimer considérablement le niveau des erreurs de type I des tests de signification.
ABSTRACT
This paper presents, for models based on time series data, a method of estimation to take into account errors in the variables, when these errors are not autocorrelated. The suggested approach utilizes shifted values of the independent variables as instruments. We use Fuller's (1987) consistent estimator and compare analytically the mean squared errors of this estimator with those of a similar estimator which would ignore the presence of errors in the variables. Finally, from Monte-Carlo studies based on samples of 150 observations, we evaluate the relative performance of the above estimators as well as that of an alternative estimator which is a weighted sum of the first two. Our experiments show that the alternative estimator appears to behave relatively better. They also indicate that the inconveniences associated with the presence of errors in the variables is not only to bias the parameter estimators or to increase their mean squared errors but also to underestimate notably the size of the type I errors of significance tests.
Download the article in PDF to read it.
Download