連鎖律のソースを表示
←
連鎖律
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
{{出典の明記|date=2019年4月}} {{calculus}} [[微分法]]において'''連鎖律'''(れんさりつ、{{lang-en-short|chain rule}})あるいは'''合成関数の微分公式'''とは、複数の関数が合成された[[写像の合成|合成関数]]を[[微分]]するとき、その[[導関数]]がそれぞれの導関数の積で与えられるという関係式のこと。 ==概要 == <math>f </math> を[[開区間]] <math> I </math> 上の[[微分可能な関数]]、<math>g </math> を開区間 <math> J </math> 上の微分可能な関数とするとき、<math> g </math> と <math> f </math> が合成可能(つまり <math>g(J) \subset I</math> )ならば[[合成関数]] <math> f \circ g</math> も開区間 <math>J</math> 上で微分可能であり、[[導関数]]は関係式 :<math> (f \circ g)'(x) = f'(g(x)) g'(x)</math> を満たす。これを連鎖律という{{sfn|杉浦|1980|p={{Google books quote|id=M6waEAAAQBAJ|page=131|131}}|loc=定理 6.6(連鎖律)}}。[[ライプニッツの記法]]では :<math>\frac {df}{dx} = \frac {df} {dg} \cdot \frac {dg}{dx}</math> となる。積分法においては、[[置換積分]]に対応する。 ==例== === 例1 === :<math>\begin{cases}y = \log {u}\\ u = \cos {x} \end{cases} </math> <math>y = \log ({\cos {x}})</math> を <math>x</math> について微分する。連鎖律より :<math>\frac{dy}{dx}=\frac{dy}{du} \cdot \frac{du}{dx}</math> である。導関数 ''dy''/''du'' および ''du''/''dx'' を求める: :<math> \frac{dy}{du} = \frac{1}{u} \,</math> :<math> \frac{du}{dx} = - \sin{x} \, </math> したがって :<math>\frac{dy}{dx} = \frac{1}{u} \cdot (- \sin{x}) = -\frac{\sin{x}}{u} = -\frac{\sin{x}}{\cos {x}} = -\tan{x}</math> となる。 ==間違った証明== 微分の定義より :<math> \begin{align} (f \circ g)'(a) ~ &= \lim_{x \rightarrow a} {(f \circ g)(x) - (f \circ g)(a) \over x - a} \\ &= \lim_{x \rightarrow a} {f(g(x)) - f(g(a)) \over x - a} \\ &= \lim_{x \rightarrow a} \left [ {f(g(x)) - f(g(a)) \over g(x) - g(a)} \cdot {g(x) - g(a) \over x - a}\right ] \\ &= \lim_{x \rightarrow a} {f(g(x)) - f(g(a)) \over g(x) - g(a)} \cdot \lim_{x \rightarrow a} {g(x) - g(a) \over x - a} \\ &= f'(g(a)) \cdot g'(a) \end{align} </math> となる。これは一見正しそうに見えるかもしれないが、<math>a</math> のどれだけ近いところにも <math>g(x)=g(a)</math> となる <math>x</math> が存在する場合(例えば <math>g(x)</math> が定数関数の場合)には、[[0除算]]が含まれるため、この証明は誤りである。 == 証明 == <!--===第一の証明===--> 上の間違った証明を"修正"して正しい証明にするには、例えば次のようにする。 微分の定義より: :<math>(f \circ g)'(a) = \lim_{x \to a} \frac{f(g(x)) - f(g(a))}{x - a}.</math> しばらくの間 ''g''(''x'') は ''a'' の近くの任意の ''x'' に対して ''g''(''a'') と等しくないと仮定する。すると上の式は2つの因子の積に等しい: :<math>\lim_{x \to a} \frac{f(g(x)) - f(g(a))}{g(x) - g(a)} \cdot \frac{g(x) - g(a)}{x - a}.</math> ''g'' が ''a'' の近くで振動するとき、''a'' にいくら近づいても常に、さらに近い ''x'' が存在して ''g''(''x'') が ''g''(''a'') に等しいということが起こり得る。例えば、これは {{math|1=''g''(''x'') = ''x''<sup>2</sup>sin(1 / ''x'')}} に対して点 {{math|1=''a'' = 0}} の近くで起こる。これが起こるときにはいつでも、上の式は[[0除算|0による割り算]]を含むから定義されない。これに対処するためには、次のように関数 ''Q'' を導入する: :<math>Q(y) = \begin{cases} \dfrac{f(y) - f(g(a))}{y - g(a)}, & y \neq g(a), \\ f'(g(a)), & y = g(a). \end{cases}</math> {{math|''f'' ∘ ''g''}} に対応する[[差分商]]は常に次に等しいことをこれから証明する: :<math>Q(g(x)) \cdot \frac{g(x) - g(a)}{x - a}.</math> ''g''(''x'') が ''g''(''a'') に等しくないときにはいつでも、{{math|''g''(''x'') − ''g''(''a'')}} という因子は打ち消し合うから明らかである。''g''(''x'') が ''g''(''a'') に等しいときには、''f''(''g''(''x'')) は ''f''(''g''(''a'')) に等しいから {{math|''f'' ∘ ''g''}} の微分商は 0 であり、上の積は ''f''′(''g''(''a'')) 掛ける 0 に等しいから 0 である。したがって上の積はつねに微分商に等しい。 {{math|''f'' ∘ ''g''}} の ''a'' における微分が存在することを示しその値を決定するためには、上の積の ''x'' が ''a'' に行くときの極限が存在することを示しその値を決定するだけでよい。 これをするために、積の極限はその因子の極限が存在すれば存在することを思い出そう。これが起こるとき、これら [[数列の極限#性質|2つの因子の積の極限は因子の極限の積に等しくなる]]。2つの因子は {{math|''Q''(''g''(''x''))}} と {{math|(''g''(''x'') − ''g''(''a'')) / (''x'' − ''a'')}} である。後者は ''g'' の ''a'' における微分商であり、仮定により ''g'' は ''a'' において微分可能であるので、''x'' が ''a'' に向かうときのその極限は存在し ''g''′(''a'') に等しい。 ''Q''(''g''(''x'')) を調べることが残っている。''Q'' は ''f'' が定義されているときにはいつでも定義されている。さらに、仮定により ''f'' は ''g''(''a'') において微分可能なので、''Q'' は ''g''(''a'') において連続である。''g'' は ''a'' において微分可能であるから ''a'' において連続であり、それゆえ {{math|''Q'' ∘ ''g''}} は ''a'' において連続である。したがって ''x'' が ''a'' に行くときのその極限は存在し、 ''Q''(''g''(''a'')) に等しく、それは ''f''′(''g''(''a'')) である。 これで両方の因子の極限が存在しそれらはそれぞれ ''f''′(''g''(''a'')) と ''g''′(''a'') に等しいことが示された。したがって {{math|''f'' ∘ ''g''}} の ''a'' における微分は存在し ''f''′(''g''(''a''))''g''′(''a'') に等しい。 <!-- ===第二の証明=== Another way of proving the chain rule is to measure the error in the linear approximation determined by the derivative. This proof has the advantage that it generalizes to several variables. It relies on the following equivalent definition of differentiability at a point: A function ''g'' is differentiable at ''a'' if there exists a real number ''g''′(''a'') and a function ε(''h'') that tends to zero as ''h'' tends to zero, and furthermore :<math>g(a + h) - g(a) = g'(a) h + \varepsilon(h) h.\,</math> Here the left-hand side represents the true difference between the value of ''g'' at ''a'' and at {{math|''a'' + ''h''}}, whereas the right-hand side represents the approximation determined by the derivative plus an error term. In the situation of the chain rule, such a function ε exists because ''g'' is assumed to be differentiable at ''a''. Again by assumption, a similar function also exists for ''f'' at ''g''(''a''). Calling this function η, we have :<math>f(g(a) + k) - f(g(a)) = f'(g(a)) k + \eta(k) k.\,</math> The above definition imposes no constraints on η(0), even though it is assumed that η(''k'') tends to zero as ''k'' tends to zero. If we set {{math|1=η(0) = 0}}, then η is continuous at 0. Proving the theorem requires studying the difference {{math|''f''(''g''(''a'' + ''h'')) − ''f''(''g''(''a''))}} as ''h'' tends to zero. The first step is to substitute for {{math|''g''(''a'' + ''h'')}} using the definition of differentiability of ''g'' at ''a'': :<math>f(g(a + h)) - f(g(a)) = f(g(a) + g'(a) h + \varepsilon(h) h) - f(g(a)).</math> The next step is to use the definition of differentiability of ''f'' at ''g''(''a''). This requires a term of the form {{math|''f''(''g''(''a'') + ''k'')}} for some ''k''. In the above equation, the correct ''k'' varies with ''h''. Set {{math|1=''k''<sub>''h''</sub> = ''g''′(''a'') ''h'' + ε(''h'') ''h''}} and the right hand side becomes {{math|''f''(''g''(''a'') + ''k''<sub>''h''</sub>) − ''f''(''g''(''a''))}}. Applying the definition of the derivative gives: :<math>f(g(a) + k_h) - f(g(a)) = f'(g(a)) k_h + \eta(k_h) k_h.\,</math> To study the behavior of this expression as ''h'' tends to zero, expand ''k''<sub>''h''</sub>. After regrouping the terms, the right-hand side becomes: :<math>f'(g(a)) g'(a)h + [f'(g(a)) \varepsilon(h) + \eta(k_h) g'(a) + \eta(k_h) \varepsilon(h)] h.\,</math> Because <math>\varepsilon(h)</math> and <math>\eta(k_h)</math> tend to zero as ''h'' tends to zero, the first two bracketed terms tend to zero as ''h'' tends to zero. Applying the same theorem on products of limits as in the first proof, the third bracketed term also tends zero. Because the above expression is equal to the difference {{math|''f''(''g''(''a'' + ''h'')) − ''f''(''g''(''a''))}}, by the definition of the derivative {{math|''f'' ∘ ''g''}} is differentiable at ''a'' and its derivative is {{math|''f''′(''g''(''a'')) ''g''′(''a'').}} The role of ''Q'' in the first proof is played by η in this proof. They are related by the equation: :<math>Q(y) = f'(g(a)) + \eta(y - g(a)). \,</math> The need to define ''Q'' at ''g''(''a'') is analogous to the need to define η at zero. --> == 脚注 == {{Reflist}} == 参考文献 == * {{Cite Book | 和書 | title = 解析入門I | author = 杉浦光夫 | authorlink = 杉浦光夫 | year = 1980 | publisher = [[東京大学出版]] | url = {{Google books|id=M6waEAAAQBAJ|plainurl=yes}} | isbn = 978-4-13-062005-5 | ref = {{sfnref|杉浦|1980}} }} == 関連項目 == * [[微分]] * [[偏微分]] * [[置換積分]] * [[ヤコビ行列]] <math> \textstyle \frac{\partial(z_1, \dots, z_l)}{\partial(x_1, \dots, x_n)} = \frac{\partial(z_1, \dots, z_l)}{\partial(y_1, \dots, y_m)} \frac{\partial(y_1, \dots, y_m)}{\partial(x_1, \dots, x_n)} </math> {{DEFAULTSORT:れんさりつ}} [[Category:解析学]] [[Category:数学に関する記事]]
このページで使用されているテンプレート:
テンプレート:Calculus
(
ソースを閲覧
)
テンプレート:Cite Book
(
ソースを閲覧
)
テンプレート:Lang-en-short
(
ソースを閲覧
)
テンプレート:Math
(
ソースを閲覧
)
テンプレート:Reflist
(
ソースを閲覧
)
テンプレート:Sfn
(
ソースを閲覧
)
テンプレート:出典の明記
(
ソースを閲覧
)
連鎖律
に戻る。
ナビゲーション メニュー
個人用ツール
ログイン
名前空間
ページ
議論
日本語
表示
閲覧
ソースを閲覧
履歴表示
その他
検索
案内
メインページ
最近の更新
おまかせ表示
MediaWiki についてのヘルプ
特別ページ
ツール
リンク元
関連ページの更新状況
ページ情報