二値エントロピー関数

提供: testwiki
2017年7月25日 (火) 01:38時点におけるimported>Nnhによる版
(差分) ← 古い版 | 最新版 (差分) | 新しい版 → (差分)
ナビゲーションに移動 検索に移動

テンプレート:翻訳直後 テンプレート:参照方法 情報理論において、二値エントロピー関数(にちエントロピーかんすう、binary entropy function)は H(p) もしくは Hb(p) のように表記され、確率 p の1値または2値ベルヌーイ過程情報エントロピーとして定義される。数学的には、ベルヌーイ試行は0か1の排他的な2値のみをとりうる確率変数 X

Pr(X=1)=p のとき Pr(X=0)=1p であり、X のエントロピーは(シャノン単位で)次のように与えられる。

H(X)=Hb(p)=plog2p(1p)log2(1p),

ここで、 0log20 は 0 とする。この式中の対数は通常、底を2とする。二進対数も参照されたい。

p=12 のとき、二値エントロピー関数は最大値をとる。これは偏りのないコイントスに対応する。

H(p) は単一の実数を引数としてとり、確率分布や確率変数を引数とするエントロピー関数 H(X) とは区別される。二値エントロピー関数を H2(p) と表記する場合もある。しかし、 テンプレート:Ill2H2(X) と表記することがあるため、混同に注意が必要である。

説明

情報理論における用語では、「エントロピー」とはメッセージ中の不確定性の尺度と考えられる。直感的に理解するため、p=0 の場合を考える。この確率では、ある事象は決して起こらないことが確定しており、不確定性はまったくないのでエントロピーは0となる。p=1 の場合も、結果はやはり確定的でありエントロピーは0となる。p=1/2 のとき不確定性は最大となり、公平な賭けをする場合は確率に関する知識があろうと全く有利にはならないのである。この場合、エントロピーは最大値 1 ビットをとる。中間的な値はこれらの極端な場合の間になる。たとえば p=1/4 の場合、結果に若干の不確定性があるものの、予言を外すよりは多く当てることができるので不確定性の尺度、すなわちエントロピーは完全な 1 ビットよりは小さくなる。

導関数

二値エントロピー関数の導関数ロジット関数の符号を反転させたもので表現される。

ddpHb(p)=logit2(p)=log2(p1p).

テイラー展開

二値エントロピー関数の1/2まわりでのテイラー展開は次のように与えられる。

Hb(p)=112ln2n=1(12p)2nn(2n1)

これは 0p1 で成り立つ。

関連項目

出典