Loading AI tools
ウィキペディアから
逸脱度情報量規準(いつだつどじょうほうりょうきじゅん、英: Deviance information criterion、略称: DIC)は、赤池情報量規準(AIC)の階層的モデリング一般化である。特に、統計モデルの事後分布がマルコフ連鎖モンテカルロ(MCMC)シミュレーションによって得られたベイズモデル選択において有用である。DICは、AIC(赤池情報量基準)と同様に、漸近近似である。DICは、事後分布がおおよそ多変量正規分布である時にのみ有効である。
逸脱度をと定義する。はデータ、はモデルの未知のパラメータ、は尤度関数である。は異なるモデルを比較する全ての計算で打ち消される定数であり、したがって知る必要はない。
モデルのパラメータの有効な数を計算するために一般的に使われる方法には2種類がある。1つ目の計算法[1]は(はの期待値)である。2つ目[2]はである。パラメータの有効な数が大きい程、モデルはデータを当て嵌めるのがより簡単になり、そのため逸脱度はペナルティーを科される必要がある。
逸脱度情報量規準は、
あるいは同等に
として計算される。
この後者の形式から、AICとのつながりがよりはっきりと分かる。
着想は、より小さなDICを持つモデルがより大きなDICを持つモデルよりも好まれるべきだ、というものである。モデルは、よい当て嵌めを好むの値と、(AICと同様に)パラメータの有効な数の両方によってペナルティーを科される。はモデル中のパラメータの数が増加するにつれて低下するため、項はより小さなパラメータ数を持つモデルを好むことによってこの影響を補償する。
ベイズモデル選択の場合における他の規準に対するDICの優位性は、DICがマルコフ連鎖モンテカルロシミュレーションによって生成されたサンプルから容易に計算される点である、AICはの極大点での尤度の計算を必要とするが、これはMCMCシミュレーションから容易に得ることができない。しかしDICを計算するためには、単純にのサンプルにわたるの平均としてを計算し、のサンプルの平均で評価されたの値としてを計算する。次に、DICはこれらの近似値から直接得られる。Claeskens and Hjort (2008, Ch. 3.5) は、DICがAICの自然モデル-ロバスト版と大きなサンプルで同等であることを示している。
DICの導出において、未来の観察を生成する確率分布の特定のパラメータ付けられた族が真のモデルを包含することが仮定される。この仮定は常に適用できず、このシナリオにおいてモデル検証手続を考慮することが望ましい。
また、観察されたデータは事後分布を構築するためと、推定されたモデルを評価するための両方で使われる。したがって、DICは過剰適合したモデルを選択しがちである。
最近、上述した問題がAndo (2007)によるベイズ予測情報量基準(Bayesian predictive information criterion; BPIC)で解決された。Ando (2010, Ch. 8) は様々なベイズモデル選択規準の議論を提供している。DICの過剰適合問題を避けるため、Ando (2011) は予測の観点からベイズモデル選択規準を開発した。この規準は
として計算される。第一項はモデルがデータにいかに良く当て嵌まっているかの指標であるのに対して、第二項はモデルの複雑さへのペナルティーである。ここで留意すべきは、この式中のpが上述した尤度よりはむしろ予測分布という点である。
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.