8.5 Modelli delle innovazioni nello spazio degli stati per il lisciamento esponenziale

Nella parte restante di questo capitolo si studiano i modelli statistici che stanno alla base dei metodi di lisciamento esponenziale considerati finora. I metodi di lisciamento esponenziale presentati in tabella 8.6 sono algoritmi che generano previsioni puntuali. I modelli statistici in questo paragrafo generano le stesse previsioni puntuali, ma possono anche generare intervalli di previsione. Un modello statistico è un processo stocastico (o casuale) di generazione di dati che può produrre un’intera distribuzione di previsione. Si descriverà di seguito anche come utilizzare i criteri di selezione del modello introdotti nel capitolo 7 per scegliere il modello in modo oggettivo.

Ogni modello consiste di un’equazione di misura che descrive i dati osservati e di alcune equazioni di stato che descrivono come le componenti non osservate o gli stati (livello, trend, stagionalità) cambiano nel tempo. Quindi, ci si riferisce a questi come modelli nello spazio degli stati.

Per ogni metodo esistono due modelli: uno con errori additivi e uno con errori moltiplicativi. Le previsioni puntuali prodotte dai modelli sono identiche se utilizzano gli stessi valori dei parametri di lisciamento. Tuttavia, genereranno intervalli di previsione diversi.

Per distinguere tra un modello con errori additivi ed un modello con errori moltiplicativi (e anche per distinguere i modelli dai metodi), si aggiunge una terza lettera alla classificazione della tabella 8.5. Si etichetta ogni modello dello spazio degli stati come ETS(\(\cdot,\cdot,\cdot\)) per (Errore, Trend, Stagionalità). Questa etichetta può anche essere pensata come lisciamento esponenziale (ExponenTial Smoothing). Usando la stessa notazione della tabella 8.5, le possibilità per ogni componente sono: Errore \(=\{\)A,M\(\}\), Trend \(=\{\)N,A,A\(_d\}\) e Stagionalità \(=\{\)N,A,M\(\}\).

ETS(A,N,N): lisciamento esponenziale semplice con errori additivi

Si ricorda la forma per componenti del lisciamento esponenziale semplice: \[\begin{align*} \text{Equazione di previsione} && \hat{y}_{t+1|t} & = \ell_{t}\\ \text{Equazione di lisciamento} && \ell_{t} & = \alpha \, y_{t} + (1 - \alpha)\ell_{t-1}. \end{align*}\] Riorganizzando l’equazione di lisciamento per il livello, si ottiene la forma “a correzione dell’errore”, \[\begin{align*} \ell_{t} %&= \alpha \, y_{t}+\ell_{t-1}-\alpha \, \ell_{t-1}\\ &= \ell_{t-1}+\alpha \, (y_{t}-\ell_{t-1})\\ &= \ell_{t-1}+\alpha \, e_{t}, \end{align*}\] in cui \(e_{t}=y_{t}-\ell_{t-1}=y_{t}-\hat{y}_{t|t-1}\) è il residuo al tempo \(t\).

Gli errori commessi sul training set portano all’aggiustamento del livello stimato durante il processo di lisciamento per \(t=1,\dots,T\). Ad esempio, se l’errore al tempo \(t\) è negativo, allora \(y_t < \hat{y}_{t|t-1}\) e quindi il livello al tempo \(t-1\) è sovrastimato. Il nuovo livello \(\ell_t\) è quindi il livello precedente \(\ell_{t-1}\) corretto al ribasso. Quanto più \(\alpha\) è vicino a uno, tanto più “grezza” è la stima del livello (si hanno cioè grandi aggiustamenti). Più piccolo è \(\alpha\), più “liscia” è la stima del livello (ci sono piccoli aggiustamenti).

Si può anche scrivere \(y_t = \ell_{t-1} + e_t\), così che ogni osservazione può essere rappresentata dal livello precedente più un errore. Per trasformare questo in un modello nello spazio degli stati delle innovazioni, tutto quello che bisogna fare è specificare la distribuzione di probabilità per \(e_t\). Per un modello con errori additivi, si assume che i residui \(e_t\) (gli errori di stima ad un passo nel training set) sia un white noise (rumore bianco) distribuito normalmente con media \(0\) e varianza \(\sigma^2\). Una notazione abbreviata per questo è \(e_t = \varepsilon_t\sim\text{NID}(0,\sigma^2)\); NID sta per “normalmente ed indipendentemente distribuito”.

Quindi le equazioni del modello possono essere scritte come \[\begin{align} y_t &= \ell_{t-1} + \varepsilon_t \tag{8.3}\\ \ell_t&=\ell_{t-1}+\alpha \varepsilon_t. \tag{8.4} \end{align}\] L’espressione (8.3) è chiamata equazione di misura (o osservazione) e l’espressione (8.4) equazione di stato (o transizione). Queste due equazioni, insieme alla distribuzione statistica degli errori, formano un modello statistico completamente specificato. In particolare, esse costituiscono un modello nello spazio degli stati delle innovazioni che sta alla base del lisciamento esponenziale semplice.

Il termine “innovazioni” deriva dal fatto che tutte le equazioni utilizzano lo stesso processo di errore casuale, \(\varepsilon_t\). Per lo stesso motivo, questa formulazione viene anche chiamata modello a “fonte di errore singola”. Esistono formulazioni alternative a fonti di errore multiple non trattate in questo testo.

L’equazione di misura mostra la relazione tra le osservazioni e gli stati non osservati. In questo caso, l’osservazione \(y_t\) è una funzione lineare del livello \(\ell_{t-1}\), la parte prevedibile di \(y_t\), e l’errore \(\varepsilon_t\), la parte non prevedibile di \(y_t\). Per altri modelli nello spazio degli stati delle innovazioni, questa relazione può essere non lineare.

L’equazione di stato mostra l’evoluzione dello stato attraverso il tempo. L’influenza del parametro di lisciamento \(\alpha\) è la stessa dei metodi discussi in precedenza. Per esempio, \(\alpha\) governa la quantità di cambiamento nei livelli successivi: alti valori di \(\alpha\) permettono rapidi cambiamenti nel livello; bassi valori di \(\alpha\) portano a cambiamenti meno marcati. Se \(\alpha=0\), il livello della serie non cambia nel tempo; se \(\alpha=1\), il modello si riduce ad un random walk (passeggiata casuale), \(y_t=y_{t-1}+\varepsilon_t\) (si veda il paragrafo 9.1 per una discussione di questo modello).

ETS(M,N,N): lisciamento esponenziale semplice con errori moltiplicativi

In modo analogo, è possibile specificare modelli con errori moltiplicativi scrivendo gli errori a un passo commessi nel training set in termini relativi \[ \varepsilon_t = \frac{y_t-\hat{y}_{t|t-1}}{\hat{y}_{t|t-1}} \] dove \(\varepsilon_t \sim \text{NID}(0,\sigma^2)\). Sostituendo \(\hat{y}_{t|t-1}=\ell_{t-1}\) si ha \(y_t = \ell_{t-1}+\ell_{t-1} \, \varepsilon_t\) e \(e_t = y_t - \hat{y}_{t|t-1} = \ell_{t-1}\varepsilon_t\).

Pertanto, la forma moltiplicativa del modello nello spazio degli stati si può scrivere come \[\begin{align*} y_t&=\ell_{t-1}(1+\varepsilon_t)\\ \ell_t&=\ell_{t-1}(1+\alpha \, \varepsilon_t). \end{align*}\]

ETS(A,A,N): Metodo di Holt lineare con errori additivi

Per questo modello si assume che gli errori di stima del training set un passo avanti siano dati da \(\varepsilon_t=y_t-\ell_{t-1}-b_{t-1} \sim \text{NID}(0,\sigma^2)\). Sostituendo questo nelle equazioni a correzione degli errori per il metodo di Holt lineare si ottiene \[\begin{align*} y_t&=\ell_{t-1}+b_{t-1}+\varepsilon_t\\ \ell_t&=\ell_{t-1}+b_{t-1}+\alpha \, \varepsilon_t\\ b_t&=b_{t-1}+\beta \, \varepsilon_t, \end{align*}\] dove per semplicità abbiamo fissato \(\beta=\alpha \beta^*\).

ETS(M,A,N): Metodo di Holt lineare con errori moltiplicativi

Specificando gli errori di previsione ad un passo commessi nel training set come errori relativi tali per cui \[ \varepsilon_t=\frac{y_t-(\ell_{t-1}+b_{t-1})}{(\ell_{t-1}+b_{t-1})} \] e seguendo un approccio simile a quello usato sopra, il modello nello spazio degli stati delle innovazioni sottostante il metodo di Holt lineare con errori moltiplicativi è specificato come \[\begin{align*} y_t&=(\ell_{t-1}+b_{t-1})(1+\varepsilon_t)\\ \ell_t&=(\ell_{t-1}+b_{t-1})(1+\alpha \, \varepsilon_t)\\ b_t&=b_{t-1}+\beta \, (\ell_{t-1}+b_{t-1}) \, \varepsilon_t, \end{align*}\]

dove ancora una volta \(\beta=\alpha \beta^*\) e \(\varepsilon_t \sim \text{NID}(0,\sigma^2)\).

Altri modelli ETS

In modo simile, è possibile scrivere un modello nello spazio degli stati delle innovazioni per ciascuno dei metodi di lisciamento esponenziale della tabella 8.6. La tabella 8.7 presenta le equazioni per tutti i modelli della famiglia ETS.

Tabella: (#tab:ssm) Equazioni spazio stato per ognuno dei modelli ETS.