見せかけの回帰と対策・共和分

「時系列分析と状態空間モデルの基礎」より


見せかけの回帰

  • 単位根のあるデータ同士の回帰分析にかけると有意な回帰係数が得られる現象を『見せかけの回帰』という。
  • 定常AR過程同士の回帰分析でも『見せかけの回帰』が生じる。


原因

見せかけの回帰の発生理由として、「残差に自己相関がある」ことが言われている。

残差に自己相関があると、最小二乗推定量における有効性が失われる。すなわち推定されたパラメタが「最も分散が小さい推定量である」という保証が得られなくなってしまう。


残差に対して正の自己相関があった場合、以下の問題が発生

  • 係数の分散の過小推定
  • 決定係数R²が過大となる
  • 係数のt検定が使えなくなる


残差の自己相関の有無を調べる方法

Durbin-Watson検定(DW検定)の使用

残差の1次の自己相関が0であった場合は、DW統計量はおよそ2になることが知られている。DW統計量が2からどれほど離れているかを確認すれば、残差の自己相関の有無について、おおよその検討がつく。

wikiのDW検定の説明


pythonによるDW検定例

リンクのコード参照


見せかけの回帰を防ぐ方法

見せかけの回帰を防ぐには、過去のデータをモデルに組み込み、データの持つ自己相関を表現するモデルを作る。

ARIMAXモデルやベクトル自己回帰モデル(VAR)、状態空間モデルなどが候補となる。

また、残差の自己相関を明示的にモデルに組み込む回帰モデルとして、一般化最小二乗法(GLS)が知られている。

別の方法としては、単位根を持つデータの場合、差分系列へ回帰分析を実行する。

差分をとることでランダムウォークがただのホワイトノイズになり、見せかけの回帰が起こらなくなる。ただし、差分をとる場合は共和分の確認必要で、共和分があったら差分をとる方法は使えない。


一般的な流れ、

  1. 単位根の有無を検定(ADF検定 or KPSS検定)で確認
  2. 単位根がなければ一般化最小二乗法(GLS)を適用(Prais-Winsten法など利用)
  3. 単位根があれば、共和分の有無を確認したうえで、共和分がなければ差分系列への回帰分析を実施する


単位根検定

  • ADF検定
    • 仮定:y_t = Σ_i=1_to_℘(Φ_i * y_t-1) + ε_t ε_t ~ W.N.(σ²)
    • 上式で y_t が単位根過程に従うとき、AR特性方程式は z=1を解に持つので、単位根検定するためには、
          Σ_i=1_to_℘(Φ_i) = 1
      を検定する。
         ρ = Σ_i=1_to_℘(Φ_i)
      とすると、
        • 帰無仮説:ρ = 1 (単位根過程) 
        • 対立仮説:0 < ρ < 1 (弱定常過程)
          として検定を行う。
  • コード例



共和分

単位根を持つデータ同士で回帰分析をした場合、見せかけの回帰になることが多いが、データが共和分を持っているとその限りでない。

例えば、データx_tとy_tがそれぞれ単位根を持っており、y_tとx_tの線形結合が単位根を持たなくなったとしたら、両者は共和分の関係にある。

x_tとy_tで線形結合したときに、ランダムウォーク系列が無くなり、ホワイトノイズとなるような場合に共和分の関係が生じる。

共和分があるかどうかの検定:共和分検定(Engle-Grangerの方法など)


共和分検定

 単位根を持つデータに対して、OLSにより回帰直線を求める。そして残差を計算する。

残差に対して単位根検定を行い、単位根がなくなれば共和分ありとみなすのが共和分検定。

回帰式は一種の線形結合なので、共和分関係にあれば単位根は消える。

また、残差に対して単位根検定を行うため、通常のADF検定やKPSS検定は使えない。

Phillips-Ouliaris検定(PO検定)を使う。この検定の帰無仮説は「共和分関係がない」。




機械学習Tips保管庫

データ解析、機械学習のための学習内容の保管庫。復習用。

0コメント

  • 1000 / 1000