頭のリフレッシュ 〜 時系列分析4
前回「頭のリフレッシュ 〜 時系列分析3」では、データを加法モデルに分解して遊んでみた。
今回は、モデルについて。
如何にも単純なグラフである。
自己相関はこんな感じ。
> acf(ar1.ts, plot="FALSE") Autocorrelations of series ‘ar1.ts’, by lag 0 1 2 3 4 5 6 7 8 9 10 1.000 0.747 0.556 0.412 0.303 0.220 0.158 0.110 0.073 0.044 0.022 11 12 13 14 15 16 0.005 -0.009 -0.020 -0.030 -0.038 -0.044
ラグが増加すると、自己相関係数は単調に減少する。
実はこのデータ、1つ前のデータに0.75をかけて、次のデータを作成したもの。
つまり、自己回帰ARモデル。Rで、ar関数を作用させると自己相関係数が0.7466と計算される。
> ar1.result<-ar(ar1.ts) > ar1.result Call: ar(x = ar1.ts) Coefficients: 1 0.7466 Order selected 1 sigma^2 estimated as 0.002927
自己相関係数を計算してみる。
> acf(ar1.ts,plot="FALSE") Autocorrelations of series ‘ar1.ts’, by lag 0 1 2 3 4 5 6 7 8 9 10 1.000 -0.750 0.562 -0.422 0.316 -0.238 0.178 -0.134 0.100 -0.076 0.056 11 12 13 14 15 16 -0.043 0.031 -0.025 0.017 -0.014 0.009
プラスとマイナスを交互に繰り返しながら、自己相関係数が減少していることがわかる。
このデータは、1つ前のデータに-0.75をかけて、次のデータを作成したもの。
ar関数を作用させると、たしかに相関係数は-0.75だ。
> ar1.result<-ar(ar1.ts) > ar1.result Call: ar(x = ar1.ts) Coefficients: 1 -0.7501 Order selected 1 sigma^2 estimated as 0.003365
ところで、1つ目のデータのコレログラムは「頭のリフレッシュ 〜 時系列分析1」で登場したコレログラムと似ていないか。
いずれもラグが増加するのに伴い、単調減少しているように見える。
それでは、「頭のリフレッシュ 〜 時系列分析1」で登場した時系列データは自己回帰モデルで説明できるのだろうか。