頭のリフレッシュ 〜 時系列分析4

前回「頭のリフレッシュ 〜 時系列分析3」では、データを加法モデルに分解して遊んでみた。

今回は、モデルについて。

下図のようなデータを考える。

如何にも単純なグラフである。

自己相関はこんな感じ。

> acf(ar1.ts, plot="FALSE")

Autocorrelations of series ‘ar1.ts’, by lag

     0      1      2      3      4      5      6      7      8      9     10 
 1.000  0.747  0.556  0.412  0.303  0.220  0.158  0.110  0.073  0.044  0.022 
    11     12     13     14     15     16 
 0.005 -0.009 -0.020 -0.030 -0.038 -0.044 

ラグが増加すると、自己相関係数は単調に減少する。
実はこのデータ、1つ前のデータに0.75をかけて、次のデータを作成したもの。
つまり、自己回帰ARモデル。Rで、ar関数を作用させると自己相関係数が0.7466と計算される。

> ar1.result<-ar(ar1.ts)
> ar1.result

Call:
ar(x = ar1.ts)

Coefficients:
     1  
0.7466  

Order selected 1  sigma^2 estimated as  0.002927

次に、別の時系列データを考えてみる。

自己相関係数を計算してみる。

> acf(ar1.ts,plot="FALSE")

Autocorrelations of series ‘ar1.ts’, by lag

     0      1      2      3      4      5      6      7      8      9     10 
 1.000 -0.750  0.562 -0.422  0.316 -0.238  0.178 -0.134  0.100 -0.076  0.056 
    11     12     13     14     15     16 
-0.043  0.031 -0.025  0.017 -0.014  0.009 

プラスとマイナスを交互に繰り返しながら、自己相関係数が減少していることがわかる。

このデータは、1つ前のデータに-0.75をかけて、次のデータを作成したもの。
ar関数を作用させると、たしかに相関係数は-0.75だ。

> ar1.result<-ar(ar1.ts)
> ar1.result

Call:
ar(x = ar1.ts)

Coefficients:
      1  
-0.7501  

Order selected 1  sigma^2 estimated as  0.003365

ところで、1つ目のデータのコレログラムは「頭のリフレッシュ 〜 時系列分析1」で登場したコレログラムと似ていないか。
いずれもラグが増加するのに伴い、単調減少しているように見える。

それでは、「頭のリフレッシュ 〜 時系列分析1」で登場した時系列データは自己回帰モデルで説明できるのだろうか。