ベルマン方程式のソースを表示
←
ベルマン方程式
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
[[ファイル:Bellman flow chart.png|thumb|500px|right|ベルマン方程式のフローチャート]] '''ベルマン方程式'''(ベルマンほうていしき、{{lang-en-short|Bellman equation}})は、[[動的計画法]](dynamic programming)として知られる数学的最適化において、最適性の必要条件を表す方程式であり、発見者の[[リチャード・E・ベルマン|リチャード・ベルマン]]にちなんで命名された。動的計画方程式(dynamic programming equation)とも呼ばれる。ベルマン方程式は、決定問題(decision problem)において、ある時刻の初期選択と、それ以降の決定問題の価値との関係を記述する。これにより、動的な最適化問題を、'''ベルマンの最適性の原理'''が示す指針にしたがって、より単純な部分問題(subproblems)に分解するのである。 ベルマン方程式は最初、[[制御理論|制御]]工学や他の応用数学上の問題に適用され、その後、経済理論(economic theory)における重要なツールとなった。しかしながら、動的計画法の基本概念はもともと[[ジョン・フォン・ノイマン]]と[[オスカー・モルゲンシュテルン]]のゲーム理論と経済活動や[[エイブラハム・ウォールド]]の 時系列解析(sequential analysis) の研究の中で次第に形作られてきたものである。 最適制御理論で解かれるほとんどの問題は、適切なベルマン方程式を用いて解くことができる。ただし、一般に「ベルマン方程式」という用語は離散時間の最適化問題を解く際に用いられる動的計画法の方程式を指す。 連続時間の最適化問題を解く場合には、ベルマン方程式の連続時間形式である偏微分方程式を用い、これを[[ハミルトン-ヤコビ-ベルマン方程式]]と呼ぶ。 == 動的計画法の考え方 == ベルマン方程式を理解するには、いくつかの背景となる概念を理解しなくてはならない。第一に、最適化問題は何らかの目標を持つ。具体例を挙げれば、移動時間を最短にする、コストを最小に抑える、利益を最大化する、効用を最大化する、などである。これらの目標を数学の関数で表現したものを'''[[数理最適化|目的関数]]'''(objective function)と呼ぶ。 動的計画法は複数段階にわたる計画問題を、各時点の簡単な手順へと分解する。そのため、ある時点でなされた決定がそれ以降どのように影響を及ぼすか正しく記述しなくてはならない。正しい判断を下すために必要な現在の状況を示す情報を'''状態'''(state)と呼ぶ<ref name="BellmanDP"/><ref name=dreyfus/>。例えば、人がある時点で何をどれだけ消費するか決めるには、(何よりもまず)現在の富(資産額)を知らなくてはならない。 そのゆえ、富は、経済活動を行う人が持つ''{{仮リンク|状態変数 (制御理論)|label=状態変数|en|state variable}}''の一つと考えられる。言うまでもなく、このような状態変数は他にも存在する。 任意の時点で選ぶことのできる変数を通常'''{{仮リンク|制御変数|en|control variable (programming)}}'''(control variables)と呼ぶ。例えば、人々は与えられた富のもとで、どれだけ消費すべきか判断する。制御変数を選ぶことは、次の状態を選択することでもある。ただし、一般に次の状態は制御変数だけではなく他の要因によっても影響を受ける。具体例で示そう。最も単純には、今日の富(状態)と消費(制御変数)によって明日の富(次の状態)が決まる。だが、多くの場合、明日の富には別の要因(例:予期せぬボーナス、天災など)も影響するであろう。 動的計画法は、与えられたどんな状態に対しても、適切な制御の指針を与えるような最適な計画を記述する。一例として、消費 <math>c</math> が富 <math>W</math> だけに依存する場合には、我々は、財産の関数として消費を決定するような制御則 <math>c(W)</math> を探索することになる。 状態に基づいて制御変数を決定するこのような関数を、'''方策関数'''(policy function)(Bellman、1957、Ch. III.2を参照)と呼ぶ<ref name=BellmanDP />。 最後に、最適な決定ルール(制御則)はその定義から、実現可能な最良の目的関数の値をもたらすものである。例えば、ある人が与えられた富のもと、満足度を最大化するための消費活動を選ぶとしよう。ただし、満足度 <math>H</math> は効用関数(utility function)のような目的関数で表現できるとする。この時、各時刻の財産はそれで実現可能な満足度の最大値 <math>H(W)</math> と関係付けることができる。ある状態で実現しうる最良の目的関数の値を示す関数を '''価値関数'''(value function)と呼ぶ。 [[リチャード・E・ベルマン|リチャード・ベルマン]]は、離散時間形式の動的[[数理最適化|最適化]]問題が、ある時刻の価値関数とその次の時刻の価値関数の間の関係式を書き下すことによって、再帰的な、{{仮リンク|後ろ向き帰納法|en|backward induction}}(backward induction)と呼ばれる逐次的な形式で表現できることを示した。上述の時間的に隣接する二つの価値関数の関係式がベルマン方程式である。このアプローチでは、終端時刻における最適な方策は、その時刻の状態変数の関数としてすでに決まっており、結果として得られる目的関数の最適値は状態変数で与えられる。次に、最後から一つ前の時刻の最適化を考えると、決定に際して、その状態変数に付随する最適な方策のもとで、その時刻の目的関数と未来の目的関数の和を最大化する。このアルゴリズムは、再帰的に時間を遡る形で進み、初期時刻において、初期状態の関数としての決定ルールが初期時刻に固有の目的関数と2番目のステップの価値関数(第2ステップ以降すべての未来の価値)の和の最適化計算によって得られるまで繰り返される。ゆえに、各ステップにおける決定は、それ以降の未来すべての判断が最適である事を前提として行われるのである。 == ベルマン方程式の導出 == === 動的決定問題 === 時刻 <math>t</math> における状態を <math>x_t</math> とする。時刻0から始まる決定問題において、初期状態 <math>x_0</math> は与えられているものとする。任意の時間において、選択可能なアクションはその時の状態の関数であり、<math> a_{t} \in \Gamma (x_t)</math> と表すことができる。<math>a_t</math> は一つ以上の制御変数を表している。アクション <math>a</math> が選ばれると、それによって状態は <math>x</math> から新しい状態 <math>T(x,a)</math> へと変化するものとする。さらに、状態 <math>x</math> においてアクション <math>a</math> をとった時の損得を <math>F(x,a)</math> で表す。最後に、我々は性急さ(せっかちさ){{Efn|時間選好率のこと。}}の度合いが、{{仮リンク|割引率|en|discount factor}}(discount factor)<math>0 < \beta < 1 </math> で表されるものとする。 これらの仮定の下で、無限の未来までを考慮した決定問題(無限期間の最適化問題) は次式となる。 :<math> V(x_0) \; = \; \max_{ \left \{ a_{t} \right \}_{t=0}^{\infty} } \sum_{t=0}^{\infty} \beta^t F(x_t,a_{t}), </math> ただし次の条件のもとで: :<math> a_{t} \in \Gamma (x_t), \; x_{t+1}=T(x_t,a_t), \; \forall t = 0, 1, 2, \dots </math> 想定された拘束条件のもとで目的関数を最適化した結果としての、最適な値を表現するものとして <math>V(x_{0})</math> を定義したことに注意しよう。この関数を価値関数(value function)と呼ぶ。最適値は初期状態によって変化するから、価値関数 <math>V(x_0)</math> は初期状態 <math>x_0</math> の関数となる。 === ベルマンの最適性の原理 === 動的計画法は、この決定問題をより小さな部分問題に分割する。リチャード・ベルマンの最適性の原理がその方法を示している: <blockquote>'''最適性の原理'''(Principle of Optimality):最適な方策は、初期状態と初期決定がどんなものであれ、その結果得られる次の状態に関して、以降の決定が必ず最適方策になっているという性質をもつ。(参照:Bellman, 1957、Chap. III.3.)<div><ref name=BellmanDP /><ref name=dreyfus /><ref name="BellmanTheory"/></div></blockquote> コンピュータ・サイエンスでは、このように分割できる問題の事を「{{仮リンク|部分構造最適性|en|optimal substructure}}(optimal substructure)を持つ」と表現する。この原理は、動的[[ゲーム理論]]における[[部分ゲーム完全均衡]](subgame perfect equilibrium)と相似な概念である。ただし、動的ゲーム理論における最適方策は、相手プレイヤーが同様に最適方策を選択するという前提に立つ。 最適性の原理から示唆されるように、我々は将来の選択(時刻1から新しい状態 <math>x_1</math> でスタートする)について一旦保留して、最初の決定だけを独立に検討する。将来の決定に関する項を大括弧の中に集めることにより、先の問題は次のように表現される。 :<math> \max_{ a_0 } \left \{ F(x_0,a_0) + \beta \left[ \max_{ \left \{ a_{t} \right \}_{t=1}^{\infty} } \sum_{t=1}^{\infty} \beta^{t-1} F(x_t,a_{t}): a_{t} \in \Gamma (x_t), \; x_{t+1}=T(x_t,a_t), \; \forall t \geq 1 \right] \right \}</math> ただし次の条件のもとで: :<math> a_0 \in \Gamma (x_0), \; x_1=T(x_0,a_0).</math> ここで時刻1での状態が <math>x_1=T(x_0,a_0)</math> となることを知りつつ、アクション <math>a_0</math> を選ぶ。この新しい状態は、時刻1以降すべての決定に影響を与える。未来全体の決定問題は、右側の角括弧の中に現れている。 === ベルマン方程式 === これまでのところ、我々は単に現在の決定を未来の決定から分割することによって、単に問題を厄介にしたにすぎないように見える。だが、右側の角括弧の中を状態 <math>x_1=T(x_0,a_0)</math> から始まった時点1における意思決定問題の''価値''として表せたことで、問題の単純化が可能になっている。 従って、問題を価値関数に関する再帰的な定義式として書き直すことができる。 :<math>V(x_0) = \max_{ a_0 } \{ F(x_0,a_0) + \beta V(x_1) \} </math> ただし次の条件のもとで: :<math> a_0 \in \Gamma (x_0), \; x_1=T(x_0,a_0).</math> これがベルマン方程式である。時間に関する添え字を省略し、次の状態を代入することにより、式をより単純化できる。 :<math>V(x) = \max_{a \in \Gamma (x) } \{ F(x,a) + \beta V(T(x,a)) \}.</math> ベルマン方程式を解くことは、未知の関数 <math>V(x)</math>(価値関数)を見出すことである。ゆえにベルマン方程式は汎関数[[関数方程式|方程式]]に属している。価値関数は目的の実現可能な最良値を状態 <math>x</math> の関数として表していることを思い出そう。価値関数を計算することによって、同時に我々は最適なアクションを状態の関数 <math>a(x)</math> として得ることができる。これを方策関数(policy function)と呼ぶ。 === 確率的な問題におけるベルマン方程式 === {{See also|マルコフ過程}} 決定論的な条件では、上述の[[最適制御]]問題を解くために動的計画法以外の手法を用いることが出来る。ある種の問題に対しては、この手法は便利であるが、確率過程のもつ性質に注意する必要がある。 経済学における具体的な例題として、時刻 <math>0</math> において初期富(初期資産)<math>a_0</math> を持ち、無限の寿命を持つ消費者を考える。彼は、瞬間的[[効用|効用関数]] <math>u(c)</math> を持つとする。ただし、<math>c</math> は消費額を表し、次の時刻における割引率を <math>0< \beta<1 </math> とする。時刻 <math>t</math> において消費されなかった富は、金利 <math>r</math> と共に次の時刻に繰り越される。すると消費者の効用最大化問題は、消費計画 <math>\{c_t\}</math> を次式によって決定する問題となる。 :<math>\max \sum_{t=0} ^{\infty} \beta^t u (c_t)</math> ただし次の条件のもとで: :<math>a_{t+1} = (1 + r) (a_t - c_t), \; c_t \geq 0,</math> および :<math>\lim_{t \rightarrow \infty} a_t \geq 0.</math> 最初の条件は、問題設定に記述された資本の蓄積を示し、二つ目の条件は消費者が人生の終わりに置いて負債を先送りできないという{{仮リンク|横断性条件|en|transversality condition}}を示す。ベルマン方程式は次式となる。 :<math>V(a) = \max_{ 0 \leq c \leq a } \{ u(c) + \beta V((1+r) (a - c)) \},</math> この代わりに、同じ問題を例えばハミルトン方程式で扱う事もできる。 今、金利が時間とともに変化するとすれば、消費者は確率的最適化問題に直面する。金利 <math>r</math> が[[マルコフ過程]]に従い、その推移確率測度を <math>Q(r, d\mu_r)</math>、ただし、<math>d\mu_r</math> を現在の金利が <math>r</math> の時に次の時刻の金利の変動を決定する[[確率測度]]であるとしよう。このモデルでは、現在の金利が示された直後に、消費者が決定を下すものとする。 この場合、単純な消費の系列 <math>\{c_t\}</math> を選ぶ代わりに、消費者は彼/彼女の全人生にわたる効用の期待値が最大となるように <math>\{c_t\}</math> を各時点でのあり得る利率 <math>\{r_t\}</math> に応じて選ばなくてはならない。 :<math>\max \mathbb{E}\bigg( \sum_{t=0} ^{\infty} \beta^t u (c_t) \bigg).</math> 期待値 <math>\mathbb{E}</math> は、金利 <math>r</math> の系列に関して <math>Q</math> で与えられる確率測度に関して計算される。<math>r</math> はマルコフ過程なので、問題は動的計画法によって劇的に単純化される。ベルマン方程式は単に以下の形となる。 :<math>V(a, r) = \max_{ 0 \leq c \leq a } \{ u(c) + \beta \int V((1+r) (a - c), r') Q(r, d\mu_r) \} .</math> ある一般的な仮定のもとで、結果として得られる最適な方策関数 <math>g(a,r)</math> は[[可測関数|可測]]となる。 マルコフ的なショックを伴い、主体が事後に選択を行うような一般的な確率的時系列の最適化問題に対しては、ベルマン方程式は非常に良く似た形をとる。 :<math>V(x, z) = \max_{c \in \Gamma(x,z)} F(x, c, z) + \beta \int V( T(x,c), z') d\mu_z(z'). </math> == 解法 == * {{仮リンク|未定係数法 (微分方程式)|label=未定係数法|en|method of undetermined coefficients}}(「山勘と確認 (guess and verify)」としても知られる)は、ある種の無限期間(infinite horizon)の[[自励系|自律]]的なベルマン方程式を解くために用いられる。 * ベルマン方程式は{{仮リンク|後ろ向き推論|en|backward induction}}(backward induction)によって解くことができる。特別な場合には解析的に解けるほか、コンピュータにより数値解を得ることができる。数値的な後ろ向き推論は、さまざまな問題を解くのに応用できるが、状態変数が多い場合には[[次元の呪い]]のために非現実的な方法となる。これに対して、近似動的計画法は、ベルマン関数を近似するためにニューラルネットワーク([[多層パーセプトロン]])を用いる方法で、D・P・Bertsekas と J・N・Tsitsiklis によって提案された<ref name=NeuroDynProg/>。この方法は全状態空間の関数写像を記憶する問題を単一のニューラルネットワークのパラメータの記録によって置き換えることで、高次元における計算量爆発の問題を緩和する効果的な戦略である。 * ベルマン方程式に関連する一次の条件を計算し、価値関数の微分項を包絡線定理(envelope theorem)によって消去することにより、システムの差分方程式、ないし、[[オイラー・ラグランジュ方程式|オイラー方程式]]と呼ばれる微分方程式を導くことができる。これらの差分方程式や微分方程式は標準的な手法を用いて解くことができ、状態変数の動的な変化や最適化問題の解となる制御変数を計算できる。 == 経済学への応用 == 経済学において最初にベルマン方程式を適用した例として知られるのが、Martin Beckmann と Richard Muth の研究である<ref name=Beckmann1954/>。さらに、Martin Beckmann はベルマン方程式を利用した消費理論に関する論文を1959年に発表した。彼の仕事は、特に[[エドムンド・フェルプス]]に影響を受けたものである。 ベルマン方程式の経済学への応用として、特に有名なのが[[ロバート・マートン]]が1973年に発表した[[異時点間CAPM]]である<ref name=Merton1973/>([[マートンのポートフォリオ問題]]もまた参照)。マートンの理論モデルにおいて、投資家が現在の収入と将来の収入もしくはキャピタルゲインを比較して判断をおこなう場合の解はベルマン方程式となる。動的計画法を経済学に応用する場合、結果として得られるベルマン方程式は差分方程式となるため、経済学者は動的計画法を「再帰的方法」と呼ぶ。そのため現在では、{{仮リンク|再帰的経済学|en|recursive economics}}は、経済学の一分野として認識されている。 [[ナンシー・ストーキー]]、[[ロバート・ルーカス (経済学者)|ロバート・ルーカス]]、[[エドワード・プレスコット]]は確率的/非確率的動的計画法について細部まで詳細に記述し、さまざまな条件における解の存在定理を得た。彼らは同時に再帰的手法を用いて経済学理論のさまざまな問題のモデル化について多くの例を示した<ref name=Stokey1989/>。この著作は経済学における様々な問題を解くために動的計画法を利用する道を開いた。例えば、最適な[[経済成長]]は、資源開発、プリンシパル=エージェント理論、公共[[財政]]、事業[[投資]]、資産価格、供給要因、[[産業組織論|産業組織]]である。{{仮リンク|ラース・リュングヴィスト|en|Lars Ljungqvist}}と[[トーマス・サージェント]]は[[金融政策]]、[[財政政策]]、[[租税|課税]]、[[経済成長]]、[[サーチ理論]]、[[労働経済学]]などにおける様々な理論的問題を研究するために動的計画法を用いた<ref name=Ljungqvist2012/>。[[アビナッシュ・ディキシット]]と{{仮リンク|ロバート・ピンダイク|en|Robert Pindyck}}は、資本予算について考察することでこの手法の価値を示した<ref name=Dixit1994/>。Andersonはこの手法を非公開企業を含んだ事業評価技術に適用した<ref name="Anderson2004"/>。 具体的な問題を解くために動的計画法を利用するには、観測できない割引率(discount rate)の決定のような、情報上の困難によって複雑なものになる。さらに取りうる膨大な数のアクションと状態変数によって生ずる[[次元の呪い]]に起因する計算技術上の問題が、最適戦略を得る前に立ちはだかる。このような計算上の問題については、Miranda と Fackler<ref name=Miranda2002/>、あるいは Meyn 2007 を見よ<ref name=Meyn2007/>。 == 例 == [[マルコフ決定過程]](MDP)において、ベルマン方程式は期待報酬(expected reward)に関する再帰的な関係を表現する。例えば、特定の状態 <math>s</math> において方策 <math>\pi</math> を適用した際の期待報酬は以下のベルマン方程式を満たす: :<math> V^\pi(s)= R(s,\pi(s)) + \gamma \sum_{s'} P(s'|s,\pi(s)) V^\pi(s').\ </math> この方程式は、ある方策 <math>\pi</math> のもとで得られる期待報酬を表している。 最適な方策を採用した場合の方程式が最適ベルマン方程式である: :<math> V^*(s)= \max_a \Big\{ R(s,a) + \gamma \sum_{s'} P(s'|s,a) V^*(s') \Big\}. </math> この式は、最適な行動をとった場合に得られる期待報酬を表す。 == 脚注 == {{脚注ヘルプ}} === 注釈 === {{Notelist}} === 出典 === {{reflist|30em|refs= <ref name=BellmanDP>Bellman, R.E. 1957. ''Dynamic Programming''. Princeton University Press, Princeton, NJ. Republished 2003: Dover, ISBN 0-486-42809-5.</ref> <ref name=dreyfus>S. Dreyfus (2002), [http://www.wu-wien.ac.at/usr/h99c/h9951826/bellman_dynprog.pdf 'Richard Bellman on the birth of dynamic programming'] {{webarchive|url=https://web.archive.org/web/20050110161049/http://www.wu-wien.ac.at/usr/h99c/h9951826/bellman_dynprog.pdf |date=2005年1月10日 }} ''Operations Research'' 50 (1), pp. 48–51.</ref> <ref name=BellmanTheory>R Bellman, ''On the Theory of Dynamic Programming'', Proceedings of the National Academy of Sciences, 1952</ref> <ref name="NeuroDynProg">Bertsekas, D. P., Tsitsiklis, J. N., ''Neuro-dynamic programming''. Athena Scientific, 1996</ref> <ref name=Beckmann1954>{{cite journal |first=Martin |last=Beckmann |first2=Richard |last2=Muth |year=1954 |title=On the Solution to the ‘Fundamental Equation’ of inventory theory |work=Cowles Commission Discussion Paper 2116 |url=http://cowles.yale.edu/sites/default/files/files/pub/cdp/e-2116.pdf }}</ref> <ref name=Merton1973>{{cite journal |first=Robert C. |last=Merton |year=1973 |title=An Intertemporal Capital Asset Pricing Model |journal=[[Econometrica]] |volume=41 |issue=5 |pages=867–887 |jstor=1913811 }}</ref> <ref name=Stokey1989>{{cite book |first=Nancy |last=Stokey |first2=Robert E. |last2=Lucas |first3=Edward |last3=Prescott |year=1989 |title=Recursive Methods in Economic Dynamics |location= |publisher=Harvard Univ. Press. |isbn=0-674-75096-9 }}</ref> <ref name=Ljungqvist2012>{{cite book |first=Lars |last=Ljungqvist |first2=Thomas |last2=Sargent |year=2012 |title=Recursive Macroeconomic Theory |location= |publisher=MIT Press |edition=Third |isbn=978-0-262-01874-6 }}</ref> <ref name=Dixit1994>{{cite book |first=Avinash |last=Dixit |first2=Robert |last2=Pindyck |year=1994 |title=Investment Under Uncertainty |location= |publisher=Princeton Univ. Press |isbn=0-691-03410-9 }}</ref> <ref name=Anderson2004>Anderson, Patrick L., Business Economics & Finance, CRC Press, 2004 (chapter 10), ISBN 1-58488-348-0; The Value of Private Businesses in the United States, ''Business Economics'' (2009) 44, 87–108. {{doi|10.1057/be.2009.4}}. ''Economics of Business Valuation'', Stanford University Press (2013); ISBN 9780804758307. [http://www.sup.org/book.cgi?id=11400 Stanford Press]</ref> <ref name=Miranda2002>Miranda, M., & Fackler, P., 2002. ''Applied Computational Economics and Finance''. MIT Press</ref> <ref name=Meyn2007>S. P. Meyn, 2007. [http://decision.csl.uiuc.edu/~meyn/pages/CTCN/CTCN.html Control Techniques for Complex Networks] {{webarchive|url=https://web.archive.org/web/20080513165615/http://decision.csl.uiuc.edu/~meyn/pages/CTCN/CTCN.html |date=2008年5月13日 }}, Cambridge University Press, 2007. Appendix contains abridged [http://decision.csl.uiuc.edu/~meyn/pages/book.html Meyn & Tweedie] {{webarchive|url=https://web.archive.org/web/20071012194420/http://decision.csl.uiuc.edu/~meyn/pages/book.html |date=2007年10月12日 }}.</ref> }} == 関連項目 == * {{日本語版にない記事リンク|再帰的競争均衡|en|recursive competitive equilibrium}} * [[最適制御|最適制御理論]] * [[動的計画法]] * [[ハミルトン-ヤコビ-ベルマン方程式]] * [[微分動的計画法]] * {{日本語版にない記事リンク|部分構造最適性|en|Optimal substructure}} * {{日本語版にない記事リンク|ベルマンの擬スペクトル的方法|en|Bellman pseudospectral method}} * [[マルコフ決定過程]] {{DEFAULTSORT:へるまんほうていしき}} [[Category:最適化]] [[Category:方程式]] [[Category:リチャード・E・ベルマン]] [[Category:人名を冠した数式]] [[Category:数学に関する記事]]
このページで使用されているテンプレート:
テンプレート:Efn
(
ソースを閲覧
)
テンプレート:Lang-en-short
(
ソースを閲覧
)
テンプレート:Notelist
(
ソースを閲覧
)
テンプレート:Reflist
(
ソースを閲覧
)
テンプレート:See also
(
ソースを閲覧
)
テンプレート:仮リンク
(
ソースを閲覧
)
テンプレート:日本語版にない記事リンク
(
ソースを閲覧
)
テンプレート:脚注ヘルプ
(
ソースを閲覧
)
ベルマン方程式
に戻る。
ナビゲーション メニュー
個人用ツール
ログイン
名前空間
ページ
議論
日本語
表示
閲覧
ソースを閲覧
履歴表示
その他
検索
案内
メインページ
最近の更新
おまかせ表示
MediaWiki についてのヘルプ
特別ページ
ツール
リンク元
関連ページの更新状況
ページ情報