9.3 Modelli Autoregressivi

Nel modello di regressione multivariato, introdotto nel Capitolo 7, abbiamo visto come prevedere la variabile di interesse usando una combinazione lineare di predittori. In un modello autoregressivo, la variabile di interesse viene, invece, prevista usando una combinazione lineare di valori passati della variabile stessa. Il termine autoregressione significa, appunto, che si tratta di una regressione della variabile di interesse sulla variabile stessa.

Pertanto, un modello autoregressivo di ordine \(p\) può essere scritto come \[ y_{t} = c + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \dots + \phi_{p}y_{t-p} + \varepsilon_{t}, \] dove \(\varepsilon_t\) è white noise. Questo modello è, quindi, simile ad un modello di regressione multivariata, dove i predittori sono i valori ritardati di \(y_t\). Chiamiamo questo tipo di modello AR(\(p\)), o modello autoregressivo di ordine \(p\).

I modelli autoregressivi sono molto flessibili e permettono di tener conto di caratteristiche molto diverse delle serie storiche. Le due serie in Figura 9.5 mostrano due realizzazioni, rispettivamente, da un processo AR(1) e da un AR(2). Cambiando i valori dei parametri \(\phi_1,\dots,\phi_p\) si ottengono serie con caratteristiche diverse. La varianza del termine di errore \(\varepsilon_t\) ha effetti solo sulla scala della serie, non sul suo comportamento.

Due esempi di dati da modelli autoregressivi con parametri diversi. Sinistra: AR(1) con $y_t = 18 -0.8y_{t-1} + \varepsilon_t$. Destra: AR(2) with $y_t = 8 + 1.3y_{t-1}-0.7y_{t-2}+\varepsilon_t$. In entrambi i casi, $\varepsilon_t$ è distribuito come un white noise gaussiano di media nulla e varianza unitaria.

Figura 9.5: Due esempi di dati da modelli autoregressivi con parametri diversi. Sinistra: AR(1) con \(y_t = 18 -0.8y_{t-1} + \varepsilon_t\). Destra: AR(2) with \(y_t = 8 + 1.3y_{t-1}-0.7y_{t-2}+\varepsilon_t\). In entrambi i casi, \(\varepsilon_t\) è distribuito come un white noise gaussiano di media nulla e varianza unitaria.

Per un modello AR(1):

  • quando \(\phi_1=0\) e \(c=0\), \(y_t\) equivale ad un white noise;
  • quando \(\phi_1=1\) e \(c=0\), \(y_t\) equivale ad un random walk;
  • quando \(\phi_1=1\) e \(c\ne0\), \(y_t\) equivale ad un random walk con drift;
  • quando \(\phi_1<0\), \(y_t\) tende ad oscillare attorno alla sua media.

Normalmente, restringiamo la nostra attenzione a modelli autoregressivi per dati stazionari, il che implica richiedere che siano soddisfatti alcuni vincoli sui parametri del modello.

  • Per un modello AR(1): \(-1 < \phi_1 < 1\).
  • Per un modello AR(2): \(-1 < \phi_2 < 1\), \(\phi_1+\phi_2 < 1\), \(\phi_2-\phi_1 < 1\).

Quando \(p\ge3\), i vincoli sono più complicati. Il pacchetto fable tiene conto di questi vincoli quando si stima un modello autoregressivo.