9.6 Stima e selezione dell’ordine

Stima di massima verosimiglianza

Dopo aver identificato gli ordini del modello (cioè, i valori di \(p\), \(d\) e \(q\)), dobbiamo stimare i parametri \(c\), \(\phi_1,\dots,\phi_p\), \(\theta_1,\dots,\theta_q\). Per stimare i modelli ARIMA fable usa la stima di massima verosimiglianza (MLE). Questa tecnica trova i valori dei parametri che massimizzano la probabilità di ottenere proprio i dati che sono stati osservati. Per i modelli ARIMA, il metodo della massima verosimiglianza è simile al metodo di stima dei minimi quadrati estimates che minimizza la quantità \[ \sum_{t=1}^T\varepsilon_t^2. \] (Per i modelli di regressione considerati nel Capitolo 7, il metodo di stima di massima verosimiglianza porta esattamente agli stessi valori stimati con i minimi quadrati.) Si osservi che i modelli ARIMA sono molto più complicati da stimare dei modelli di regressione, e software differenti possono portare a risultati leggermente differenti, poiché usano metodi di stima e algoritmi di ottimizzazione diversi.

In pratica, il pacchetto fable riporterà il valore della log-verosimiglianza ottenuta dai dati; cioé il logaritmo della probabilità che i dati osservati provengano dal modello stimato. Dati i valori di \(p\), \(d\) e \(q\), ARIMA() cercherà di massimizzare la log-verosimiglianza per trovare le stime dei parametri.

Criteri di informazione

Il Criterio di Informazione di Akaike (AIC), che abbiamo già visto essere utile nel selezionare i predittori di un modello di regressione (vedi la Sezione 7.5), è utile anche per determinare gli ordini di un modello ARIMA. Tale criterio può essere formulato come \[ \text{AIC} = -2 \log(L) + 2(p+q+k+1), \] dove \(L\) è la verosimiglianza dei dati, \(k=1\) se \(c\ne0\) e \(k=0\) se \(c=0\). Si osservi che l’ultimo termine in parentesi è il numero di parametri del modello (inclusa \(\sigma^2\), cioè la varianza dei residui).

Per modelli ARIMA, esiste una versione corretta dell’AIC che può essere scritta come \[ \text{AICc} = \text{AIC} + \frac{2(p+q+k+1)(p+q+k+2)}{T-p-q-k-2}, \] mentre il Criterio di Informazione Bayesiano può scriversi come \[ \text{BIC} = \text{AIC} + [\log(T)-2](p+q+k+1). \] Buoni modelli si ottengono minimizzando i valori dei criteri AIC, AICc o BIC. La nostra preferenza è per il criterio AICc.

È importante notare che questi criteri di informazione tendono a non essere buone guide per selezionare l’ordine appropriato di differenziazione (\(d\)) di un modello, ma solo per selezionare i valori di \(p\) e \(q\). Questo perché l’operazione di differenziazione cambia i dati su cui viene calcolata la verosimiglianza, rendendo non comparabili i valori dei criteri di informazione automatica tra modelli con diversi ordini di differenziazione. Dobbiamo, quindi, usare qualche altro approccio per scegliere il valore di \(d\), e solo dopo possiamo usare l’AICc per selezionare \(p\) e \(q\).