シグモイド関数のソースを表示
←
シグモイド関数
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
{{出典の明記|date=2017-05}} [[画像:SigmoidFunction.png|thumb|シグモイド関数(ゲイン5)]] '''シグモイド関数'''(シグモイドかんすう、{{lang-en-short|sigmoid function|links=no}})は、次の式 :<math>\varsigma_a (x) = \frac{1}{1+e^{- a x}} = \frac{\tanh(a x / 2) + 1}{2}</math> で表される[[実数|実]][[関数 (数学)|関数]]である。ここで、<math>a</math> をゲイン (gain) と呼ぶ。 シグモイド関数は、[[生物]]の[[神経細胞]]が持つ性質をモデル化したものとして用いられる。 狭義のシグモイド関数は、ゲインを1とした、'''標準シグモイド関数'''({{lang-en-short|standard sigmoid function|links=no}}) :<math>\varsigma_1 (x) = \frac{1}{1+e^{-x}} = \frac{\tanh(x/2) + 1}{2}</math> を指す。 == 名称 == [[画像:Logistic-curve.png|thumb|標準シグモイド関数]] [[シグモイド]]({{lang-en-short|sigmoid}})とは、シグモイド曲線({{lang-en-short|sigmoid curve}})ともいい、[[ギリシャ文字]]の[[∑|シグマ]](語中では {{lang|el|σ}} だがここでは語末形の {{lang|el|ς}} のこと)に似た形と言う意味である。ただし、単にシグモイドまたはシグモイド曲線と言った場合は、シグモイド関数と似た性質を持つ{{lang|el|ς}}型の関数([[正規分布|累積正規分布関数]]、[[ゴンペルツ関数]]、[[グーデルマン関数]]など)を総称するのが普通である。 標準シグモイド関数は[[ロジット]] (logit) の逆関数であり、これになぞらえて統計処理の数値計算ライブラリでは標準シグモイド関数を '''expit''' 関数と呼んでいるものもある。 == 性質 == <math>(-\infty, \infty) \rightarrow (0,1) </math> の[[単調増加]][[連続関数]]で、後述するただ1つの[[変曲点]]を持つ。 <math>y=0</math> と <math>y=1</math> を[[漸近線]]に持ち、 :<math>\begin{align} \lim_{x \rightarrow \infty} \varsigma _a (x) &= 1 \\ \lim_{x \rightarrow -\infty} \varsigma _a (x) &= 0 \\ \lim_{x \rightarrow \pm \infty} \varsigma _a' (x) &= 0 \end{align}</math> である。 また、<math>x=0</math> では、 :<math>\begin{align} \varsigma_a (0) &= \frac{1}{2} \\ \varsigma_a' (0) &= \frac{a}{4} \\ \varsigma_a'' (0) &= 0 \end{align}</math> である。つまり、変曲点は <math>(0,\frac{1}{2})</math> である。 シグモイド関数のグラフは、<math>(0,\frac{1}{2})</math> を中心に[[点対称]]である。すなわち、<math>\varsigma_a (x) - \frac{1}{2}</math> は[[奇関数]]であり、<math>\varsigma_a (-x) = 1 - \varsigma_a (x)</math> を満たす。 [[逆関数]]は、 :<math>\varsigma_a^{-1} (y) = \frac{1}{a} \ln \left( \frac{y}{1-y} \right) = \frac{1}{a} \operatorname{logit} y</math> と、[[ロジット]]関数で表せる。特に、標準シグモイド関数とロジット関数は互いに逆関数である。 [[微分法|導関数]]と二階導関数は、 :<math>\begin{align} \varsigma _a' (x) &= \frac{a e^{-ax}}{(1 + e^{-ax} )^2} = a \varsigma_a (x) \{ 1 - \varsigma_a (x) \} \\ \varsigma _a'' (x) &= a^2 \varsigma_a (x) \{ 1 - \varsigma_a (x) \} \{ 1 - 2 \varsigma_a (x) \} \end{align}</math> と、シグモイド関数自身を使って簡潔に表せる。 [[自然対数]]と絡んで微分するとこのようになる。 :<math>\begin{align} \frac{d}{dx} \ln(\varsigma _a (x)) &= a \varsigma _a (-x) = a (1 - \varsigma_a (x)) \\ \frac{d}{dx} \ln(1 - \varsigma _a (x)) &= -a \varsigma _a (x) \end{align}</math> == 他の関数との関係 == [[画像:Gjl-t(x).svg|320px|thumb|{{lang|el|ς}}型の関数の比較]] シグモイド関数は、[[双曲線関数|双曲線正接関数]] <math>\tanh x = \frac{e^x - e^{-x}}{e^x + e^{-x}}</math> を使って <math>\varsigma_a (x) = \frac{\tanh(a x / 2) + 1}{2}</math> とも表せる。また[[ロジスティック関数]] <math>N = \frac{K}{1 + \exp{r K (t_0 - t)}}</math>において <math>r = a, K = 1, t_0 = 0</math> とした場合に当たる。 == 応用 == 導関数をシグモイド関数自身で簡単に導出できるため、微分成分が必要となる[[バックプロパゲーション]]に適している。[[ニューラルネットワーク]]における[[活性化関数]]などで用いられる。多次元版を[[ソフトマックス関数]]と言う。 == 関連項目 == * [[フェルミ分布関数]] * [[ロジスティック関数]] * [[ソフトマックス関数]] == 外部リンク == * {{高校数学の美しい物語|790|シグモイド関数の意味と簡単な性質}} {{Math-stub}} {{DEFAULTSORT:しくもいとかんすう}} [[Category:関数]] [[Category:人工ニューラルネットワーク]] [[Category:曲線あてはめ]] [[Category:数学に関する記事]]
このページで使用されているテンプレート:
テンプレート:Lang
(
ソースを閲覧
)
テンプレート:Lang-en-short
(
ソースを閲覧
)
テンプレート:Math-stub
(
ソースを閲覧
)
テンプレート:出典の明記
(
ソースを閲覧
)
テンプレート:高校数学の美しい物語
(
ソースを閲覧
)
シグモイド関数
に戻る。
ナビゲーション メニュー
個人用ツール
ログイン
名前空間
ページ
議論
日本語
表示
閲覧
ソースを閲覧
履歴表示
その他
検索
案内
メインページ
最近の更新
おまかせ表示
MediaWiki についてのヘルプ
特別ページ
ツール
リンク元
関連ページの更新状況
ページ情報