10.1 Stima

Quando si stimano i parametri del modello, si minimizza la somma dei valori al quadrato di \(\varepsilon_t\). Se invece si minimizza la somma dei valori al quadrato di \(\eta_t\) (che è ciò che accadrebbe se si stimasse il modello di regressione ignorando le autocorrelazioni degli errori), allora sorgono diversi problemi.

  1. I coefficienti stimati \(\hat{\beta}_0,\dots,\hat{\beta}_k\) non sono più le migliori stime, poiché alcune informazioni sono state ignorate nel calcolo di questi coefficienti;
  2. Qualsiasi test statistico associato al modello (ad esempio, t-test sui coefficienti) sarà errato.
  3. I valori AICc dei modelli stimati non sono più una buona guida su quale sia il modello migliore per le previsioni.
  4. Nella maggior parte dei casi, i \(p\)-value associati ai coefficienti saranno troppo piccoli, e quindi alcune variabili predittive sembreranno essere importanti quando non lo sono. Questo è noto come “regressione spuria”.

Minimizzare la somma dei valori al quadrato di \(\varepsilon_t\) evita questi problemi. In alternativa, può essere usata la stima di massima verosimiglianza; questa fornirà stime simili dei coefficienti.

Una considerazione importante quando si stima una regressione con errori ARMA è che tutte le variabili nel modello devono prima essere stazionarie. Quindi, è necessario prima controllare che \(y_t\) e tutti i predittori \((x_{1,t},\punti,x_{k,t})\) siano stazionari. Se stimiamo il modello quando uno qualsiasi di questi è non stazionario, i coefficienti stimati non saranno stime coerenti (e quindi potrebbero non essere significativi). Un’eccezione è il caso in cui le variabili non stazionarie sono cointegrate. Se esiste una combinazione lineare della variabile non stazionaria \(y_t\) e dei predittori che è stazionaria, allora i coefficienti stimati saranno consistenti.18

Si procederà quindi differenziando prima le variabili che risultano non stazionarie nel modello. È spesso desiderabile mantenere la forma della relazione tra \(y_t\) e i predittori, e di conseguenza è comune differenziare tutte le variabili se qualcuna di queste necessita di differenziazione. Il modello risultante è allora chiamato “modello nelle differenze”, distinto da un “modello nei livelli”, che è quello che si ottiene quando si usano i dati originari senza differenziare.

Se tutte le variabili del modello sono stazionarie, allora c’è solo bisogno di considerare un processo ARMA per gli errori. È facile mostrare che un modello di regressione con errori ARIMA è equivalente ad un modello di regressione nelle differenze con errori ARMA. Ad esempio, se il modello di regressione considerato in precedenza con errori ARIMA(1,1,1) è differenziato, si ottenie il modello \[\begin{align*} y'_t &= \beta_1 x'_{1,t} + \dots + \beta_k x'_{k,t} + \eta'_t,\\ & (1-\phi_1B)\eta'_t = (1+\theta_1B)\varepsilon_t, \end{align*}\] dove \(y'_t=y_t-y_{t-1}\), \(x'_{t,i}=x_{t,i}-x_{t-1,i}\) e \(\eta'_t=\eta_t-\eta_{t-1}\), che è un modello di regresssione nelle differenze con errori ARMA.

Bibliografia

Harris, R., & Sollis, R. (2003). Applied time series modelling and forecasting. John Wiley & Sons. [Amazon]

  1. La previsione con modelli cointegrati è discussa da Harris & Sollis (2003).↩︎