Régression fallacieuse

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Régression.

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

La régression fallacieuse désigne une situation dans laquelle l'utilisation de séries temporelles non stationnaires dans une régression linéaire fait apparaître des résultats erronés, trop optimistes, qui font croire à une relation entre les variables alors que ce n'est pas le cas.

Historique

Granger et Newbold[1] ont montré en 1974 que de nombreuses études statistiques de séries temporelles montraient des faux résultats, parce qu'elles ne prenaient pas en compte le problème de l'auto-corrélation des données. En effet, avec une forte auto-corrélation, l'indice R 2 {\displaystyle R^{2}} ainsi que les tests sur les coefficients, ont tendance à être trop optimistes et à faire croire à une relation entre les variables qui n'est en fait que fallacieuse.

Explication

On souhaite faire une régression linéaire entre deux séries temporelles: Y t = a X t + ϵ t {\displaystyle Y_{t}=aX_{t}+\epsilon _{t}\qquad } avec ϵ t {\displaystyle \epsilon _{t}} un bruit blanc.

Si Y t {\displaystyle Y_{t}} et X t {\displaystyle X_{t}} sont deux variables intégrées d'ordre 1, la distribution classique de l'estimateur des coefficients n'est plus selon une loi de Student, mais selon un mouvement brownien. Utiliser cependant la distribution de Student amène justement à ces résultats trop bons.

En effet, dans le cas classique, la convergence de l'estimateur des moindres carrés est montrée à partir du fait que la matrice de variance-covariance de l'échantillon tend vers la matrice de variance-covariance de la population, d'où l'on tire que Ωâ = σε²·(X 'X)−1. Cependant, la variance d'une variable non-stationnaire intégrée d'ordre 1 n'est pas fixe, et donc l'estimateur n'est pas convergent en probabilité, dû au fait que les résidus sont eux-mêmes intégrés d'ordre 1, comme Philips (1986) l'a montré. En conséquence, les tests de Student et de Fisher sont inadéquats également.

Solution

Il existe plusieurs manières de contourner le problème. Si les variables sont intégrées d'ordre 1, la série de leurs différences sera stationnaire (par définition de l'ordre d'intégration). Il suffit alors de faire la régression sur les variables en différences pour que celle-ci devienne valide.

Il est sinon possible d'utiliser un modèle à retards distribués, soit un modèle qui intègre également les retards de la variable expliquée et de la variable explicative. (Hamilton, 1994, p 562)

Exemple

Une simulation avec le logiciel libre de statistiques R permet d'illustrer le phénomène :

Régression de deux bruits blancs générés aléatoirement
Résultat affiché Code R

Call: lm(formula = x ~ y)

Residuals

Min 1Q Median 3Q Max
-2.776e+00 -6.140e-01 -1.208e-03 6.279e-01 3.205e+00

Coefficients

Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.03447376 0.04348857 0.79270862 0.42832508
y -0.04997771 0.04306249 -1.16058589 0.24636639

Residual standard error: 0.972 on 498 degrees of freedom

Multiple R-squared: 0.0027, Adjusted R-squared: 0.000695

F-statistic: 1.35 on 1 and 498 DF,p-value: 0.246

set.seed(123) #Conditionnement du compteur aléatoire pour obtenir les mêmes valeurs que l'exemple

x<-rnorm(500) #Simulation d'un bruit blanc

y<-rnorm(500) #Simulation d'un bruit blanc

summary(lm(x~y)) #Régression linéaire
 

Dans cet exemple où l'on régresse deux bruits blancs, la relation est rejetée : R2 = 0,002 7, et la probabilité que y = 0 est 24 %.

Régression de deux marches aléatoires générées aléatoirement
Résultat affiché Code R

Call: lm(formula = x2 ~ y2)

Residuals

Min 1Q Median 3Q Max
-1.357e+01 -6.564e+00 -1.047e+00 6.846e+00 1.631e+01

Coefficients

Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.591223e+01 7.543316e-01 -2.109447e+01 4.727110e-71
y2 -5.255336e-01 3.562320e-02 -1.475257e+01 3.990599e-41

Residual standard error: 7.49 on 498 degrees of freedom

Multiple R-squared: 0.304, Adjusted R-squared: 0.303

F-statistic: 218 on 1 and 498 DF,p-value: <2e-16

set.seed(123) #Conditionnement du compteur aléatoire pour obtenir les mêmes valeurs que l'exemple

x<-rnorm(500) #Simulation d'un bruit blanc

y<-rnorm(500) #Simulation d'un bruit blanc

x2<-cumsum(x) #Génération d'une marche aléatoire à partir du bruit blanc : somme cumulée

y2<-cumsum(y) #idem

summary(lm(x2~y2)) #Régression linéaire
 

On remarque ici par contre que la régression de marches aléatoires, qui sont des processus intégrés d'ordre 1, laisse penser à une relation significative : le coefficient R2 = 0,304, et la probabilité que y vaille zéro est inférieure à 0,000 000 1 %, ce qui laisserait croire qu'il y a une relation entre les variables. La statistique de Fisher, qui teste si en soi la régression a un sens, est également très fortement rejetée.

Régression des différences de deux marches aléatoires générées aléatoirement
Résultat affiché Code R

Call: lm(formula = x3 ~ y3)

Residuals

Min 1Q Median 3Q Max
-3,503e+00 -6,791e-01 -9,397e-03 6,483e-01 3,133e+00

Coefficients

Estimate Std. Error t value Pr(>|t|)
(Intercept) 0,009479887 0,046269837 0,204882665 0,837747679
y3 0,091363533 0,048239919 1,893940415 0,058813318

Residual standard error: 1.03 on 497 degrees of freedom

Multiple R-squared: 0.00717, Adjusted R-squared: 0.00517

F-statistic: 3,59 on 1 and 497 DF,p-value: 0,0588

set.seed(123) #Conditionnement du compteur aléatoire pour obtenir les mêmes valeurs que l'exemple

x<-rnorm(500) #Simulation d'un bruit blanc

y<-rnorm(500) #Simulation d'un bruit blanc

x2<-cumsum(x) #Génération d'une marche aléatoire à partir du bruit blanc : somme cumulée

y2<-cumsum(y) #idem

x3<-diff(x2) #Série des différences de la marche aléatoire

y3<-diff(y2) #idem

summary(lm(x3~y3)) #Régression linéaire
 

Lorsque l'on régresse les différences des marches aléatoires, on n'a plus le problème d'une relation apparente : les statistiques de Fisher et de Student sont moins fortement rejetées, et surtout le coefficient R2 vaut 0,007 17, ce qui conduit à la conclusion qu'il n'y a pas de relation entre ces variables.

Notes et références

  1. Granger, C.W.J., Newbold, P. (1974): "Spurious Regressions in Econometrics", Journal of Econometrics, 2, 111-120

Voir aussi

Bibliographie

  • Philips P.C.B, « Understanding Spurious Regression in Econometrics », Journal of Econometrics, vol. 33,‎ , p. 311-340
  • Hamilton (1994), Time Series Analysis, Princeton University Press

Articles connexes

  • icône décorative Portail des probabilités et de la statistique