最大事後確率

提供: testwiki
ナビゲーションに移動 検索に移動

テンプレート:ベイズ統計学 最大事後確率(さいだいじごかくりつ、テンプレート:Lang-en-short推定は、統計学において、実測データに基づいて未知の量の点推定を行う手法である。ロナルド・フィッシャー最尤推定 (MLE) に密接に関連するが、推定したい量の事前分布を利用して最適化問題を解き確率が最大の結果を得る。したがってMAP推定は、最尤推定に正則化をつけた物と見ることもできる。

概要

x の観測に基づいて、未知の母集団パラメータ θ を推定したいとする。x標本分布f とすると、母集団パラメータを θ としたときの x の確率は f(x|θ) となる。すると

θf(x|θ)

という関数は尤度関数であり、

θ^ML(x)=argmaxθf(x|θ)

θ の最尤推定である。

ここで、θ の事前分布を g とする。すると、θベイズ推定における確率変数として扱える。θ事後確率は次のようになる。

θf(x|θ)g(θ)Θf(x|θ)g(θ)dθ

ここで gθ の密度関数、Θg の定義域である。これはベイズの定理の直接的な応用である。

最大事後確率推定の手法では、次に θ をこの確率変数の事後分布の最頻値として推定する。

θ^MAP(x)=argmaxθf(x|θ)g(θ)Θf(x|θ)g(θ)dθ=argmaxθf(x|θ)g(θ)

事後分布の分母は θ に依存していないので、最適化には何の役割も果たさない。θ のMAP推定で事前分布 g が一様分布の場合の結果は、最尤推定に一致する。MAP推定は、一様損失関数におけるベイズ推定関数である。

MAP推定の計算は解析的に解くか数値的に計算できる。

正規分布での例

ある並び (x1,,xn) の独立な確率変数 N(μ,σv2) があり、μ の事前分布は N(0,σm2) で与えられるとする。ここで μ のMAP推定値を求める。

最大化すべき関数は次のようになる。

π(μ)L(μ)=12πσmexp(12(μσm)2)j=1n12πσvexp(12(xjμσv)2)

これの対数を取る。

logπ(μ)L(μ)=log2πσm12(μσm)2log2πσv12j=1n(xjμσv)2=12{(μσm)2+j=1n(xjμσv)2}log2πσmσv

これは、μ を動かし次の式を最小化することと等価である。

j=1n(xjμσv)2+(μσm)2

従って μ のMAP推定値は以下のようになる。

μ^MAP=σm2nσm2+σv2j=1nxj

σm の場合を無情報事前分布(テンプレート:Lang-en-short)と呼び、この例では μ^MAPμ^MLE=1nj=1nxj である。

σm< の場合は、μ の事前分布の付与はL2正則化と同じ式になる。

参考文献

  • M. DeGroot, Optimal Statistical Decisions, McGraw-Hill, (1970).
  • Harold W. Sorenson, (1980) "Parameter Estimation: Principles and Problems", Marcel Dekker.

関連項目

脚注


テンプレート:統計学