9.3 自己回帰モデル

7章で紹介した回帰モデルでは、興味のある変数を予測するのに、予測変数を線形に組み合わせて使っていました。自己回帰モデルでは、興味のある変数を予測するのに、その変数の過去値を線形に組み合わせて使います。自己回帰という用語は、変数を自分自身で回帰することを指しています。

ですから、\(p\)次の自己回帰モデルは以下のように書けます。 \[ y_{t} = c + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \dots + \phi_{p}y_{t-p} + \varepsilon_{t} \] ただし、\(\varepsilon_t\)はホワイトノイズです。重回帰のようですが、予測変数が\(y_t\)ラグ値になっています。これを\(p\)次の自己回帰モデル、AR(\(p\))モデルと呼びます。

自己回帰モデルは、幅広いさまざまな時系列パターンを、とても柔軟に扱えます。図9.5の2つの系列は、AR(1)モデルとAR(2)モデルからの系列を表しています。パラメータ\(\phi_1,\dots,\phi_p\)を変えると、違った時系列パターンになります。誤差項\(\varepsilon_t\)の分散を変えても、系列の尺度が変わるだけで、パターンは変わりません。

異なるパラメータを持つ自己回帰モデルからのデータ2例。左: AR(1)で、$y_t = 18 -0.8y_{t-1} + \varepsilon_t$。右: AR(2)で、$y_t = 8 + 1.3y_{t-1}-0.7y_{t-2}+\varepsilon_t$。両ケースで、$\varepsilon_t$は正規分布のホワイトノイズで、平均はゼロ、分散は1

図 9.5: 異なるパラメータを持つ自己回帰モデルからのデータ2例。左: AR(1)で、\(y_t = 18 -0.8y_{t-1} + \varepsilon_t\)。右: AR(2)で、\(y_t = 8 + 1.3y_{t-1}-0.7y_{t-2}+\varepsilon_t\)。両ケースで、\(\varepsilon_t\)は正規分布のホワイトノイズで、平均はゼロ、分散は1

AR(1)モデルでは、

  • \(\phi_1=0\)かつ\(c=0\)だと、\(y_t\)はホワイトノイズと同値、
  • \(\phi_1=1\)かつ\(c=0\)だと、\(y_t\)はランダムウォークと同値、
  • \(\phi_1=1\)かつ\(c\ne0\)だと、\(y_t\)はドリフト付きランダムウォークと同値、
  • \(\phi_1<0\)だと、\(y_t\)は平均周辺を振動しがちになる。

自己回帰モデルは定常なデータに限るのが通常で、その場合、パラメータ値にいくつか制約が必要になります。

  • AR(1)モデル: \(-1 < \phi_1 < 1\)
  • AR(2)モデル: \(-1 < \phi_2 < 1\), \(\phi_1+\phi_2 < 1\), \(\phi_2-\phi_1 < 1\)

\(p\ge3\)の場合、制約はずっと複雑になります。モデル推計の際は、fableパッケージがこれら制約の面倒をみてくれます。