9.4 Modelli a media mobile

Anzichè utilizzare i valori passati della variabile dipendente, i modelli a media mobile usano gli errori passati come predittori in un modello simile a quello di regressione, \[ y_{t} = c + \varepsilon_t + \theta_{1}\varepsilon_{t-1} + \theta_{2}\varepsilon_{t-2} + \dots + \theta_{q}\varepsilon_{t-q}, \] dove \(\varepsilon_t\) è white noise. Chiamiamo tali modelli MA(\(q\)), o modelli a media mobile di ordine \(q\). Naturalmente, non possiamo osservare i valori di \(\varepsilon_t\), e per questo motivo non possiamo parlare di modello di regressione nel senso usuale del termine.

Si noti che ogni valore di \(y_t\) può essere pensato come una media mobile ponderata degli ultimi errori di previsione (sebbene i coefficienti di norma non sommino a uno). Tuttavia, i modelli a media mobile non devono essere confusi con il metodo di lisciamento basato sulle medie mobili di cui abbiamo parlato nel capitolo 3. Un modello a media mobile è usato per prevedere i valori futuri di una serie di dati, mentre il lisciamento basato sulle medie mobili è usato per ottenere una stima della componente di trend-ciclo dei valori passati.

Due esempi di dati da modelli a media mobile con parametri diversi. Sinistra: MA(1) con $y_t = 20 + \varepsilon_t + 0.8\varepsilon_{t-1}$. Destra: MA(2) con $y_t = \varepsilon_t- \varepsilon_{t-1}+0.8\varepsilon_{t-2}$. In entrambi, $\varepsilon_t$ è distribuita come un white noise gaussiano con media zero e varianza unitaria.

Figura 9.6: Due esempi di dati da modelli a media mobile con parametri diversi. Sinistra: MA(1) con \(y_t = 20 + \varepsilon_t + 0.8\varepsilon_{t-1}\). Destra: MA(2) con \(y_t = \varepsilon_t- \varepsilon_{t-1}+0.8\varepsilon_{t-2}\). In entrambi, \(\varepsilon_t\) è distribuita come un white noise gaussiano con media zero e varianza unitaria.

La figura 9.6 mostra due realizzazioni, rispettivamente, da un modello MA(1) e un MA(2) model. Cambiando i valori dei parametri \(\theta_1,\dots,\theta_q\) si ottengono serie con caratteristiche diverse. Come per i modelli autoregressivi, la varianza del termine di errore \(\varepsilon_t\) ha effetto solo sulla scala della serie, non sul suo comportamento.

È possibile scrivere ogni modello stazionario AR(\(p\)) come un modello MA(\(\infty\)). Per esempio, per un modello AR(1), usando sostituzioni ripetute, possiamo far vedere che: \[\begin{align*} y_t &= \phi_1y_{t-1} + \varepsilon_t\\ &= \phi_1(\phi_1y_{t-2} + \varepsilon_{t-1}) + \varepsilon_t\\ &= \phi_1^2y_{t-2} + \phi_1 \varepsilon_{t-1} + \varepsilon_t\\ &= \phi_1^3y_{t-3} + \phi_1^2\varepsilon_{t-2} + \phi_1 \varepsilon_{t-1} + \varepsilon_t\\ &\text{etc.} \end{align*}\] Essendo, per un AR(1) stazionario, \(-1 < \phi_1 < 1\), il valore di \(\phi_1^k\) diventerà sempre più piccolo all’aumentare di \(k\). Quindi alla fine si ottiene: \[ y_t = \varepsilon_t + \phi_1 \varepsilon_{t-1} + \phi_1^2 \varepsilon_{t-2} + \phi_1^3 \varepsilon_{t-3} + \cdots, \] che è un modello MA(\(\infty\)).

Il risultato inverso vale se imponiamo alcuni vincoli sui parametri del modello MA. In tal caso, il modello MA viene detto invertibile. Pertanto, possiamo scrivere qualsiasi processo invertibile MA(\(q\)) come un processo AR(\(infty\)). I modelli invertibili non sono semplicemente introdotti per permetterci di trasformare i modelli MA in modelli AR, in realtà tali modelli possiedono anche alcune proprietà matematiche desiderabili.

Per esempio, consideriamo il processo MA(1), \(y_{t} = \varepsilon_t + \theta_{1}\varepsilon_{t-1}\). Nella sua rappresentazione AR(\(\infty\)), il termine di errore più recente può essere scritto come una funzione lineare di osservazioni corrente e passate: \[\varepsilon_t = \sum_{j=0}^\infty (-\theta_1)^j y_{t-j}.\] Quando \(|\theta_1| > 1\), i pesi aumentano all’aumentare dei ritardi, quindi più le osservazioni sono lontane e maggiore è la loro influenza sull’errore attuale. Quando \(|\theta_1|=1\), i pesi sono costanti, e le osservazioni lontane hanno la stessa influenza delle osservazioni recenti. Poiché nessuna di queste situazioni ha molto senso, richiediamo \(|\theta_1|<1\), così le osservazioni più recenti hanno un peso maggiore delle osservazioni del passato più lontano. Quindi, il processo è invertibile quando \(|\theta_1|<1\).

I vincoli di invertibilità per modelli MA(q) sono simili ai vincoli di stazionarietà.

  • Per un modello MA(1): \(-1<\theta_1<1\).
  • Per un modello MA(2): \(-1<\theta_2<1,~\) \(\theta_2+\theta_1 >-1,~\) \(\theta_1 -\theta_2 < 1\).

Per \(q\ge3\) i vincoli sono più complicati. Ancora una volta, il pacchetto fable tiene in considerazione tali vincoli nella fase di stima dei modelli.