赤池情報量規準

提供: testwiki
ナビゲーションに移動 検索に移動

赤池情報量規準(あかいけじょうほうりょうきじゅん; 元々は An Information Criterion, のちに Akaike's Information Criterionと呼ばれるようになる)は、統計モデルの良さを評価するためのいくつかある指標のうちで最初に提唱されたものである。単にAICとも呼ばれ、この呼び方のほうが一般的である。統計学の世界では非常に有名な指標であり、多くの統計ソフトに備わっている。元統計数理研究所所長の赤池弘次が1971年に考案し1973年に発表した[1]

AICは、「モデルの複雑さと、データとの適合度とのバランスを取る」ために使用される。例えば、ある測定データを統計的に説明するモデルを作成することを考える。この場合、パラメータの数や次数を増やせば増やすほど、その測定データとの適合度を高めることができる。しかし、その反面、ノイズなどの偶発的な(測定対象の構造と無関係な)変動にも無理にあわせてしまうため、同種のデータには合わなくなる(過適合問題、Overfitting)。この問題を避けるには、モデル化のパラメータ数を抑える必要があるが、実際にどの数に抑えるかは難しい問題である。AICは、この問題に一つの解を与える。具体的にはAIC最小のモデルを選択すれば、多くの場合、良いモデルが選択できる[2]

公式は次の通りである。

テンプレート:Indent

ここでLは最大尤度kは自由パラメータの数である。

式の変形

AICは他にもさまざまな形で表される。

パラメータの数として局外変数(誤差の大きさを表すパラメータ)を数えない流儀があり、その場合、 テンプレート:Indent となる。ここでは区別のため大文字の K を使ったが、通常は双方の「パラメータ数」の表現にはっきりした使い分けはない。AICはモデル間の互いの差のみが意味を持つため、定数項は無視し、2行目のように定義することもある。式の見かけは冒頭の式と同じだが、値は異なる。

各標本の誤差項が独立で確率分布正規分布の場合、 テンプレート:Indent と表せる。n は標本サイズ、σテンプレート:Sub は各標本の標準誤差である。2行目は、定数項を省略した値である。

それに加えさらに、各標本の標準誤差が等しい場合は、 テンプレート:Indent とまで単純化できる。

有限修正

AICはその導出に漸近理論を使っており、標本サイズ無限を仮定している。そのため、標本サイズが小さい場合(およそ数十程度まで)ではその仮定は妥当せずに偏りが生じる。具体的には、AIC最小化によるモデル決定を行なうとパラメータ数を過大に見積もってしまう。これに対する対策を「AICの有限修正」と呼ぶ。

N. Sugiura (1978) は漸近理論を使わない不偏推定量である c-AIC を導出した[3]

テンプレート:Indent

ここでnはサンプルサイズである。nが大きくなるにつれて c-AIC は、AIC に収束してゆく。

たとえ n が小さくはなくても k / n が大きい(1に比べ十分に小さくない)場合には、一致性が成立しないため、 AIC はやはりパラメータ数を過大に見積もる。このような場合にも、c-AIC は正しい結果を出す。

ただし、c-AIC は漸近理論を使わないが、その代わりに誤差項が正規分布の一般化線形モデルを仮定している。そのため、それ以外の、たとえば誤差項が二項分布のモデルなどには適用できない。

他の規準との比較

しかし、AIC最小のものを選択すれば常に最良であるかと言うと一概にはそう言えない。そのため、AICの後、モデル選択規準として、BIC、CIC、DIC、EIC、GIC、PIC、TIC、WAIC、WBICなど多くの規準が提案されている。xICという名称のモデル以外では、MDLHQなどがある。

このうち、BIC(ベイズ情報量規準)、MDL(Minimum Description Length; 最小記述長)が特に有名である。ベイズモデルの予測力を測る規準として、1980年には赤池ベイズ情報量規準(ABIC)も提案され、広く用いられている。

また、GICは一般化情報量規準 (Generalized Information Criterion)で、統計的汎関数に基づいて提案された情報量規準である[4]

参考文献

  1. Akaike, H., "Information theory and an extension of the maximum likelihood principle", Proceedings of the 2nd International Symposium on Information Theory, Petrov, B. N., and Caski, F. (eds.), Akadimiai Kiado, Budapest: 267-281 (1973).
  2. 坂元慶行, 石黒真木夫, 北川源四郎, 情報量統計学, 共立出版 (1983).
  3. Nariaki Sugiura, "Further analysts of the data by akaike' s information criterion and the finite corrections", Communications in Statistics - Theory and Methods, 7(1), pp. 13-26 (1978).
  4. テンプレート:Cite journal

教科書

(今後拡充予定)

  • 小西貞則、北川源四郎:「情報量規準」、朝倉書店(シリーズ 予測と発見の科学 2)、ISBN 978-4-254-12782-9 (2004年9月25日).
  • 樺島祥介、北川源四郎、甘利俊一、赤池弘次、下平英寿:「赤池情報量規準AIC:モデリング・予測・知識発見」、共立出版、ISBN 978-4-320-12190-4 (2007年7月6日). ※ AICとその歴史。
  • 島谷健一郎:「フィールドデータによる統計モデリングとAIC」、近代科学社、ISBN 978-4-7649-0428-6 (2012年8月31日).

関連項目

外部リンク

テンプレート:統計学