分配函数 (数学)のソースを表示
←
分配函数 (数学)
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
{{要改訳}} [[確率論]]や[[情報科学]]や[[力学系]]で使用されている'''分配函数''' (ぶんぱいかんすう、{{Lang-en-short|partition function}}) は、[[統計力学]]で定義されている[[分配函数]]の一般化である。確率論では、[[正規化定数|正規化された]]値の分配函数が、[[ボルツマン分布]]である。分配函数は、多くの概念と互いに固く結び付いて、様々な種類の量を計算することが可能な一般的なフレームワークを提供する。特に、分配函数はどのように[[期待値]]や[[グリーン函数]]を計算するのかを示していて、[[フレドホルム理論]]への橋渡しともなっている。 [[複素射影空間]]や{{仮リンク|射影ヒルベルト空間|en|projective Hilbert space}}上の確率変数の設定が、[[フビニ・スタディ計量]]を持つよう幾何学化されると、[[量子力学]]の理論や、より一般的には[[場の量子論]]を結果としてもたらす。これらの理論での分配函数は、[[経路積分|経路積分定式化]]により非常に優れた開発がなされ、大きく成功している。そこでは、本記事でレビューする多くの公式とほぼ同じ公式を導くことができる。しかしながら、基礎となっている測度空間は、確率論では実数に値をとり単純であったことに対し、(量子力学や場の理論の中では)複素数に値をとり、多くの公式の中に余剰なファクタである i が現れる。このファクタを追跡することは困難であるので、ここでは行わない。本記事では、はじめに確率の総和が 1 である古典的な確率論へ焦点を当てる。 別な話題として、分配函数は、[[情報理論]]への自然な[[情報幾何学]]的アプローチを可能とする。そこの分野では、{{仮リンク|フィッシャー情報計量|en|Fisher information metric}}(Fisher information metric) を分配函数から導出された[[相関函数]]であると理解できる。情報幾何学では、[[リーマン多様体]]を定義するということが起きる。 確率論では、多くの問題の中に分配函数が発生する。自然な対称性を持つ状況下では、状況に付帯する[[確率測度]]である{{仮リンク|ギッブス測度|en|Gibbs measure}}(Gibbs measure) は[[マルコフ性]]を持つ。このことは、分配函数が遷移的な対称性を持つ場合にのみ発生することを意味している。しかし、そのような変化する状況下では、神経ネットワーク([[ホップフィールド・ネットワーク]] (Hopfield network))や[[ゲノミクス]]、[[コーパス言語学]]や[[人工知能]]などの分野への応用があり、{{仮リンク|マルコフネットワーク|en|Markov network}}(Markov network) や{{仮リンク|マルコフ論理ネットワーク|en|Markov logic network}}(Markov logic network) という考え方がある。ギッブス測度は、固定されたエネルギー期待値の[[エントロピー]]を最大とする性質を持つ唯一の測度でもある。[[最大エントロピー原理]]や、これから得られたアルゴリズムの中に分配函数が現れることが、これらの背景となっている。 ==定義== 値 <math>x_i</math> をとる [[確率変数]] <math>X_i</math> の組みと、ある[[ポテンシャル論|ポテンシャル函数]]、あるいはある[[ハミルトン力学|ハミルトニアン]] <math>H(x_1,x_2,\dots)</math> が与えられると、分配函数は次のように定義される。 :<math>Z(\beta) = \sum_{x_i} \exp \left(-\beta H(x_1,x_2,\dots) \right)</math> 函数 H は状態の空間 <math>\{X_1,X_2,\cdots\}</math> の上の実数に値を持つ函数であり、<math>\beta</math> は実数に値を取る自由なパラメータ(伝統的には[[逆温度]])である。<math>x_i</math> の和は、各々の確率変数 <math>X_i</math> が取りうる全ての可能な値を渡る和である。このように、和は <math>X_i</math> が離散的ではなく連続函数のときには、[[積分]]によって与えられることとなる。従って、連続的に変化する <math>X_i</math> の場合は、 :<math>Z(\beta) = \int \exp \left(-\beta H(x_1,x_2,\dots) \right) dx_1 dx_2 \cdots.</math> となる。 H が有限次元の[[行列]]や無限次元の[[ヒルベルト空間]]上の[[作用素 (関数解析学)|作用素]]や[[C*-環]]のような[[観測可能量]]のとき、[[跡 (線型代数学)|トレース]]として表すことが一般的であるので、 :<math>Z(\beta) = \mbox{tr}\left(\exp\left(-\beta H\right)\right)</math> と表す。H が無限次元のときにも、上記の記述が意味を持つには、アーギュメントが[[トレースクラス]]、つまり和が存在して有界であるような形をしている必要がある。 確率変数 <math>X_i</math> の個数は[[可算集合|可算]]である必要はなく、その場合には和が{{仮リンク|汎函数積分|en|functional integral}}に置き換わる。汎函数積分には多くの記法があるが、一般的な書き方をすると :<math>Z = \int \mathcal{D} \phi \exp \left(- \beta H[\phi] \right)</math> となる。 これは[[分配函数 (場の量子論)|場の量子論の分配函数]]である。 一般的に、分配函数を変形するには、補助函数を導入することが必要となる。このことは、分配函数を場の量子論の[[相関函数]]の[[母函数]]として使うことの例を与える。この詳細は以下で議論する。 <!---==Definition== Given a set of [[random variables]] <math>X_i</math> taking on values <math>x_i</math>, and some sort of [[potential function]] or [[Hamiltonian function|Hamiltonian]] <math>H(x_1,x_2,\dots)</math>, the partition function is defined as :<math>Z(\beta) = \sum_{x_i} \exp \left(-\beta H(x_1,x_2,\dots) \right)</math> The function ''H'' is understood to be a real-valued function on the space of states <math>\{X_1,X_2,\cdots\}</math>, while <math>\beta</math> is a real-valued free parameter (conventionally, the [[inverse temperature]]). The sum over the <math>x_i</math> is understood to be a sum over all possible values that each of the random variables <math>X_i</math> may take. Thus, the sum is to be replaced by an [[integral]] when the <math>X_i</math> are continuous, rather than discrete. Thus, one writes :<math>Z(\beta) = \int \exp \left(-\beta H(x_1,x_2,\dots) \right) dx_1 dx_2 \cdots</math> for the case of continuously-varying <math>X_i</math>. When ''H'' is an [[observable]], such as a finite-dimensional [[matrix (mathematics)|matrix]] or an infinite-dimensional [[Hilbert space]] [[operator (mathematics)|operator]] or element of a [[C-star algebra]], it is common to express the summation as a [[trace (linear algebra)|trace]], so that :<math>Z(\beta) = \mbox{tr}\left(\exp\left(-\beta H\right)\right)</math> When ''H'' is infinite-dimensional, then, for the above notation to be valid, the argument must be [[trace class]], that is, of a form such that the summation exists and is bounded. The number of variables <math>X_i</math> need not be [[countable]], in which case the sums are to be replaced by [[functional integral]]s. Although there are many notations for functional integrals, a common one would be :<math>Z = \int \mathcal{D} \phi \exp \left(- \beta H[\phi] \right)</math> Such is the case for the [[partition function in quantum field theory]]. A common, useful modification to the partition function is to introduce auxiliary functions. This allows, for example, the partition function to be used as a [[generating function]] for [[correlation function]]s. This is discussed in greater detail below.--> ==パラメータ β == パラメータ <math>\beta</math> の役割と意味は、様々に理解される。古典熱力学では、<math>\beta</math> は[[逆温度]]である。さらに一般的には、確率変数 <math>X</math> を持つ函数の{{仮リンク|共役変数 (熱力学)|label=共役変数|en|Conjugate variables (thermodynamics)}}である。ここでの'''共役'''とは、[[ラグランジュ力学]]での[[一般化座標系]]の共役という意味であり、特に <math>\beta</math> を[[ラグランジュの未定乗数法|ラグランジュの未定乗数]]と言う。<math>\beta</math> のことを、{{仮リンク|一般化された力|en|generalized force}}(generalized force)と言うこともある。一般に、この考え方は、複数の変数が複雑な方法で相互に関連づけられて変化するとき、ある変数を一つだけ取り出し、その変数がある値に固定されるようにして考える考え方である。今の場合には、たとえ多くの異なる[[確率分布]]が、(たまたま)ある固定された値に一致することがあったとしても、固定された値は函数 <math>H</math> の[[期待値]]になるようにする。 一般の場合には、確率変数 <math>X_i</math> に依存する函数 <math>\{H_k(x_1,\cdots)\}</math> の集合を考える。これらの函数は、何らかの理由で期待値が定数として保持されるよう選択する。この方法では期待値を固定するため、ラグランジュの未定乗数法を使い、[[最大エントロピー原理|エントロピー最大原理]]により、ものごとがどのようになるかを決定する。 いくつかの具体例を順番に述べる。基本的な熱力学の問題では、[[カノニカル分布]]を使うとき、まさにパラメータ <math>\beta</math> を使う。この使い方は、[[自由エネルギー]] (free energy)([[エネルギー保存則]]のおかげで)を定数として保持されべきものこそが期待値であるという事実の反映である。化学反応を扱う化学の問題では、[[グランドカノニカル分布]]が適切な基礎をもたらす。そこには 2つのラグランジュ未定乗数が存在する。一つは'''エネルギーを定数とする(保存量とする)方法'''で、もうひとつは'''[[フガシティー]]の方法'''で、この方法は粒子数を保存量とする方法である(化学反応が原子の数を固定することを考えると)。 一般的な場合は、下記のようになる。 :<math>Z(\beta) = \sum_{x_i} \exp \left(-\sum_k\beta_k H_k(x_i) \right).</math> ここの <math>\beta=(\beta_1, \beta_2,\cdots)</math> は空間の点である。 観測可能量 <math>H_k</math> の集合に対し、 :<math>Z(\beta) = \mbox{tr}\left[\,\exp \left(-\sum_k\beta_k H_k\right)\right]</math> と書く。前述のように、 tr の引数は[[トレースクラス]]の議論を前提としている。 従って、対応する{{仮リンク|ギッブス測度|en|Gibbs measure}}は各々の <math>H_k</math> の期待値が一定値であるような確率分布をもたらす。さらに詳しくは、 :<math>\frac{\partial}{\partial \beta_k} \left(- \log Z \right) = \langle H_k\rangle = \mathrm{E}\left[H_k\right]</math> となり、この引数のブラケット <math>\langle H_k \rangle</math> は <math>H_k</math> の期待値を表し、<math>\mathrm{E}[\;]</math> は期待値を表す別の記法である。期待値の定義の詳細は、下記で与えられる。 <math>\beta</math> の値は、普通、実数である。しかし一般には必ずしも実数である必要はない。このことは以下の[[#正規化|正規化]]のセクションで議論する。<math>\beta</math> の値はある空間の座標と解釈され、この空間は以下でスケッチするように実際、[[多様体]]である。この空間の多様体としての研究は、[[情報幾何学]]の分野へも寄与している。 <!---==The parameter β == The role or meaning of the parameter <math>\beta</math> can be understood in a variety of different ways. In classical thermodynamics, it is an [[inverse temperature]]. More generally, one would say that it is the variable that is [[Conjugate variables (thermodynamics)|conjugate]] to some (arbitrary) function <math>H</math> of the random variables <math>X</math>. The word ''conjugate'' here is used in the sense of conjugate [[generalized coordinates]] in [[Lagrangian mechanics]], thus, properly <math>\beta</math> is a [[Lagrange multiplier]]. It is not uncommonly called the [[generalized force]]. All of these concepts have in common the idea that one value is meant to be kept fixed, as others, interconnected in some complicated way, are allowed to vary. In the current case, the value to be kept fixed is the [[expectation value]] of <math>H</math>, even as many different [[probability distribution]]s can give rise to exactly this same (fixed) value. For the general case, one considers a set of functions <math>\{H_k(x_1,\cdots)\}</math> that each depend on the random variables <math>X_i</math>. These functions are chosen because one wants to hold their expectation values constant, for one reason or another. To constrain the expectation values in this way, one applies the method of [[Lagrange multiplier]]s. In the general case, [[maximum entropy method]]s illustrate the manner in which this is done. Some specific examples are in order. In basic thermodynamics problems, when using the [[canonical ensemble]], the use of just one parameter <math>\beta</math> reflects the fact that there is only one expectation value that must be held constant: the [[Thermodynamic free energy|free energy]] (due to [[conservation of energy]]). For chemistry problems involving chemical reactions, the [[grand canonical ensemble]] provides the appropriate foundation, and there are two Lagrange multipliers. One is to hold the energy constant, and another, the [[fugacity]], is to hold the particle count constant (as chemical reactions involve the recombination of a fixed number of atoms). For the general case, one has :<math>Z(\beta) = \sum_{x_i} \exp \left(-\sum_k\beta_k H_k(x_i) \right)</math> with <math>\beta=(\beta_1, \beta_2,\cdots)</math> a point in a space. For a collection of observables <math>H_k</math>, one would write :<math>Z(\beta) = \mbox{tr}\left[\,\exp \left(-\sum_k\beta_k H_k\right)\right]</math> As before, it is presumed that the argument of tr is [[trace class]]. The corresponding [[Gibbs measure]] then provides a probability distribution such that the expectation value of each <math>H_k</math> is a fixed value. More precisely, one has :<math>\frac{\partial}{\partial \beta_k} \left(- \log Z \right) = \langle H_k\rangle = \mathrm{E}\left[H_k\right]</math> with the angle brackets <math>\langle H_k \rangle</math> denoting the expected value of <math>H_k</math>, and <math>\mathrm{E}[\;]</math> being a common alternative notation. A precise definition of this expectation value is given below. Although the value of <math>\beta</math> is commonly taken to be real, it need not be, in general; this is discussed in the section [[#Normalization|Normalization]] below. The values of <math>\beta</math> can be understood to be the coordinates of points in a space; this space is in fact a [[manifold]], as sketched below. The study of these spaces as manifolds constitutes the field of [[information geometry]].--> == 対称性 == ポテンシャル函数自身は、普通は次の和の形を取る。 :<math>H(x_1,x_2,\dots) = \sum_s V(s)</math> ここに s 上の和は、集合 <math>X=\lbrace x_1,x_2,\dots \rbrace</math> の[[冪集合|べき集合]] P(X) の部分集合を渡る和を取る。例えば、[[イジング模型|イジングモデル]]のような[[統計力学]]では、和は最も近くのペアを渡る和を取る。{{仮リンク|マルコフネットワーク|en|Markov networks}}(Markov networks)のような確率論では、和はグラフの[[クリーク (グラフ理論)|クリーク]] (cliques) を渡る和をとることになる。従って、イジングモデルや他の{{仮リンク|格子モデル (物理学)|label=格子モデル|en|lattice model (physics)}}(lattice model)では、最大クリークとして辺 (edges) を取ることとなる。 ポテンシャル函数を和として書くことができるという事実は、普通、{{仮リンク|変換不変性|en|translational invariance}}(translational invariance)のような[[群 (数学)|群対称性]]による[[群の作用|作用]]で不変であるという事実を反映する。対称性は離散的か連続的かであり、(以下で議論する)ランダム変数の[[相関函数]]の中に実現されている。このようにハミルトニアンの中の対称性は、相関函数の対称性となり、逆に相関函数の対称性はハミルトニアンの中の対称性となる。 対称性は確率論で極めて重要な解釈を持っている。この対称性とは、{{仮リンク|ギッブス測度|en|Gibbs measure}}が[[マルコフ性]] (Markov property) を持っていることである。すなわち、ここでは対称性が確率変数と独立であることを意味する。同じことだが、測度は対称性の[[同値類]]の上で同一視することができる。このことから、[[ホップフィールド・ネットワーク]]のようなマルコフ性をもった問題では、分配函数が広く現れてくることになる。 <!---== Symmetry == The potential function itself commonly takes the form of a sum: :<math>H(x_1,x_2,\dots) = \sum_s V(s)\,</math> where the sum over ''s'' is a sum over some subset of the [[power set]] ''P''(''X'') of the set <math>X=\lbrace x_1,x_2,\dots \rbrace</math>. For example, in [[statistical mechanics]], such as the [[Ising model]], the sum is over pairs of nearest neighbors. In probability theory, such as [[Markov networks]], the sum might be over the [[clique (graph theory)|cliques]] of a graph; so, for the Ising model and other [[lattice model (physics)|lattice models]], the maximal cliques are edges. The fact that the potential function can be written as a sum usually reflects the fact that it is invariant under the [[group action|action]] of a [[group (mathematics)|group symmetry]], such as [[translational invariance]]. Such symmetries can be discrete or continuous; they materialize in the [[correlation function]]s for the random variables (discussed below). Thus a symmetry in the Hamiltonian becomes a symmetry of the correlation function (and vice-versa). This symmetry has a critically important interpretation in probability theory: it implies that the [[Gibbs measure]] has the [[Markov property]]; that is, it is independent of the random variables in a certain way, or, equivalently, the measure is identical on the [[equivalence class]]es of the symmetry. This leads to the widespread appearance of the partition function in problems with the Markov property, such as [[Hopfield network]]s.--> ==測度として== :<math>\exp \left(-\beta H(x_1,x_2,\dots) \right)</math> の値は、系の中で値 <math>(x_1,x_2,\dots)</math> を取る特定の[[:en:configuration space|構成空間]] (configuration space) の近傍と解釈することができる。従って、特定の構成 <math>(x_1,x_2,\dots)</math> が与えられると、 :<math>P(x_1,x_2,\dots) = \frac{1}{Z(\beta)} \exp \left(-\beta H(x_1,x_2,\dots) \right)</math> は、系で発生する構成 <math>(x_1,x_2,\dots)</math> の[[確率分布#確率密度関数|確率密度函数]]であり、ここで <math>0\le P(x_1,x_2,\dots)\le 1</math> となるように正規化すると、すべての構成の和を取ると結果が 1 となる。このようにして、分配函数は[[確率空間]]上に、[[測度論|測度]](正確には、[[確率測度]])をもたらすことが分かる。形式的には、この測度を'''{{仮リンク|ギップス測度|en|Gibbs measure}}'''(Gibbs measure) と呼ぶ。統計力学では、ギッブス測度が[[グランドカノニカル分布|グランドカノニカル集団]]と[[カノニカル分布|カノニカル集団]]の上へ一般化される。 少なくとの一つは構成 <math>(x_1,x_2,\dots)</math> が確率を最大とするものとして存在する。この構成は、便宜上、[[基底状態]]と呼ばれる。構成が一意的であれば、基底状態は'''非退化''' (non-degenerate) と言われ、系は{{仮リンク|エルゴード的|en|ergodic}}と呼ぶ。そうでない場合の基底状態を'''退化'''していると呼ばれ、基底状態は、対称性の生成子と可換かもしれないし、非可換かもしれない。可換であれば、[[不変測度]]と呼ばれる。非可換の場合は、対称性が[[自発的対称性の破れ|自発的に対称性が破れている]]と呼ばれる。 基底状態が一意に存在する条件は、[[カルーシュ・クーン・タッカー条件]]によって与えられる。これらの条件は、ギッブス測度を使い、最大エントロピー問題で評価される。 <!---==As a measure== The value of the expression :<math>\exp \left(-\beta H(x_1,x_2,\dots) \right)</math> can be interpreted as a likelihood that a specific [[configuration space|configuration]] of values <math>(x_1,x_2,\dots)</math> occurs in the system. Thus, given a specific configuration <math>(x_1,x_2,\dots)</math>, :<math>P(x_1,x_2,\dots) = \frac{1}{Z(\beta)} \exp \left(-\beta H(x_1,x_2,\dots) \right)</math> is the [[probability density function|probability]] of the configuration <math>(x_1,x_2,\dots)</math> occurring in the system, which is now properly normalized so that <math>0\le P(x_1,x_2,\dots)\le 1</math>, and such that the sum over all configurations totals to one. As such, the partition function can be understood to provide a [[measure (mathematics)|measure]] (a [[probability measure]]) on the [[probability space]]; formally, it is called the [[Gibbs measure]]. It generalizes the narrower concepts of the [[grand canonical ensemble]] and [[canonical ensemble]] in statistical mechanics. There exists at least one configuration <math>(x_1,x_2,\dots)</math> for which the probability is maximized; this configuration is conventionally called the [[ground state]]. If the configuration is unique, the ground state is said to be '''non-degenerate''', and the system is said to be [[ergodic]]; otherwise the ground state is '''degenerate'''. The ground state may or may not commute with the generators of the symmetry; if commutes, it is said to be an [[invariant measure]]. When it does not commute, the symmetry is said to be [[spontaneously broken]]. Conditions under which a ground state exists and is unique are given by the [[Karush–Kuhn–Tucker conditions]]; these conditions are commonly used to justify the use of the Gibbs measure in maximum-entropy problems.{{Citation needed|date=June 2013}}--> ==正規化(Normalization)== <math>\beta</math> の取る値は、ランダムに場が変動する[[空間|数学的な空間]]に依存している。従って、実数に値を取るランダムな場は、[[単体 (数学)|単体]]<ref>ここは、日本語版の「単体」の説明と英語版の"[[:en:simplex|simplex]]"の説明は異なっています。本パラグラフ”正規化”(normalization) の説明には、英語版を参照ください。</ref>に値を持つ。このことは、確率の和が 1 とすることが可能なであることを幾何学的に言っている。量子力学では、[[複素射影空間]](あるいは複素数値{{仮リンク|射影ヒルベルト空間|en|projective Hilbert space}})の上の確率変数の振幅は、[[波動関数#確率振幅|確率振幅]]と解釈される。ここで強調したいことは、「'''射影的'''」という単語で、振幅として 1 へ正規化されている。ポテンシャル函数の正規化は、適当な数学的空間の[[ヤコビ行列]] (Jacobian) である。通常の確率では 1 であり、ヒルベルト空間では i である。[[場の量子論]]では、<math>-\beta H</math> というよりもむしろ指数として <math>-it H</math> とする。分配函数は場の量子論の[[経路積分|経路積分による定式化]]で非常に多く研究開発され、大きな成果を収めている。場の理論は、一般的な方法というよりも 4次元時空の上で定式化するという違いこそあるものの、上記で提示したものと非常に似通っている。 <!---==Normalization== The values taken by <math>\beta</math> depend on the [[mathematical space]] over which the random field varies. Thus, real-valued random fields take values on a [[simplex]]: this is the geometrical way of saying that the sum of probabilities must total to one. For quantum mechanics, the random variables range over [[complex projective space]] (or complex-valued [[projective Hilbert space]]), where the random variables are interpreted as [[probability amplitude]]s. The emphasis here is on the word ''projective'', as the amplitudes are still normalized to one. The normalization for the potential function is the [[Jacobian matrix and determinant|Jacobian]] for the appropriate mathematical space: it is 1 for ordinary probabilities, and ''i'' for Hilbert space; thus, in [[quantum field theory]], one sees <math>it H</math> in the exponential, rather than <math>\beta H</math>. The partition function is very heavily exploited in the [[path integral formulation]] of quantum field theory, to great effect. The theory there is very nearly identical to that presented here, aside from this difference, and the fact that it is usually formulated on four-dimensional space-time, rather than in a general way.--> ==期待値== 分配函数は、共通にランダム変数の様々な函数の[[期待値]]の[[母函数]]として使われる。従って、例えば、<math>\beta</math> を調整パラメータとしてとることは、<math>\beta</math> に関しての <math>\log(Z(\beta))</math> の微分をとることになり、 :<math>\bold{E}[H] = \langle H \rangle = -\frac {\partial \log(Z(\beta))} {\partial \beta}</math> は H の平均値(期待値)を与える。物理では、これは系の平均[[エネルギー]]と呼ばれる。 上記の確率測度の定義が与えられると、ランダム変数 X の任意の函数 f の期待値は、予想通りに書き表される。また、離散的な値 X に対しては、 :<math>\begin{align} \langle f\rangle & = \sum_{x_i} f(x_1,x_2,\dots) P(x_1,x_2,\dots) \\ & = \frac{1}{Z(\beta)} \sum_{x_i} f(x_1,x_2,\dots) \exp \left(-\beta H(x_1,x_2,\dots) \right) \end{align} </math> と表す。 上の記法は、有限個の離散的な確率変数に対しては厳密で正しいが、連続変数に対してはいくらか「非公式」に見えるかもしれない。特に、上の和は[[確率空間]]を定義することに使う、基礎となる[[完全加法族|σ-代数]]に置き換わる必要がある。[[測度空間]]の上で個別に定式化されたとき、等式が保持されることを言っている。 このようにして、例えば、[[エントロピー]]は次の式で与えられる。 :<math>\begin{align} S & = -k_B \langle\ln P\rangle \\ & = -k_B\sum_{x_i} P(x_1,x_2,\dots) \ln P(x_1,x_2,\dots) \\ & = k_B(\beta \langle H\rangle + \log Z(\beta)) \end{align} </math> ギッブス測度は、一意な統計分布であり、固定したエネルギー値に対してエントロピーを最大化する。この基礎には[[最大エントロピー原理]]が使われる。 <!---==Expectation values== The partition function is commonly used as a [[generating function]] for [[expectation value]]s of various functions of the random variables. So, for example, taking <math>\beta</math> as an adjustable parameter, then the derivative of <math>\log(Z(\beta))</math> with respect to <math>\beta</math> :<math>\bold{E}[H] = \langle H \rangle = -\frac {\partial \log(Z(\beta))} {\partial \beta}</math> gives the average (expectation value) of ''H''. In physics, this would be called the average [[energy]] of the system. Given the definition of the probability measure above, the expectation value of any function ''f'' of the random variables ''X'' may now be written as expected: so, for discrete-valued ''X'', one writes :<math>\begin{align} \langle f\rangle & = \sum_{x_i} f(x_1,x_2,\dots) P(x_1,x_2,\dots) \\ & = \frac{1}{Z(\beta)} \sum_{x_i} f(x_1,x_2,\dots) \exp \left(-\beta H(x_1,x_2,\dots) \right) \end{align} </math> The above notation is strictly correct for a finite number of discrete random variables, but should be seen to be somewhat 'informal' for continuous variables; properly, the summations above should be replaced with the notations of the underlying [[sigma algebra]] used to define a [[probability space]]. That said, the identities continue to hold, when properly formulated on a [[measure space]]. Thus, for example, the [[entropy (general concept)|entropy]] is given by :<math>\begin{align} S & = -k_B \langle\ln P\rangle \\ & = -k_B\sum_{x_i} P(x_1,x_2,\dots) \ln P(x_1,x_2,\dots) \\ & = k_B(\beta \langle H\rangle + \log Z(\beta)) \end{align} </math> The Gibbs measure is the unique statistical distribution that maximizes the entropy for a fixed expectation value of the energy; this underlies its use in [[maximum entropy method]]s.--> ==情報幾何学== 点 <math>\beta</math> は空間を形成すると解釈され、特にこの空間は[[多様体]]となる。この多様体はどのような構造を持つかという疑問が当然に起きる。これを'''[[情報幾何学]]'''という。 ラグランジュ未定乗数に関する多重微分は、半正定値の[[分散共分散行列]]を引き起こす。 :<math>g_{ij}(\beta) = \frac{\partial^2}{\partial \beta^i\partial \beta^j} \left(-\log Z(\beta)\right) = \langle \left(H_i-\langle H_i\rangle\right)\left( H_j-\langle H_j\right)\rangle</math> この行列は半正定値行列で、[[計量テンソル]]と解釈され、[[リーマン計量]]と見なせる。このことにより、上記の方法で計量を持つラグランジュ未定乗数の空間は、[[リーマン多様体]]となることが分かる。<ref>Gavin E. Crooks, "Measuring thermodynamic length" (2007) 参照</ref> この多様体の研究は「情報幾何学」と呼ばれ、上記の計量は{{仮リンク|フィッシャー情報計量|en|Fisher information metric}}と呼ばれる。上記では <math>\beta</math> は多様体上の座標である。上記の定義と、これに動機付けられた単純化された[[フィッシャー情報]]とを比較することは面白いことかもしれない。 上記がフィッシャー情報計量を定義することは、期待値を明示的に代入することにより容易に理解することができる。 :<math>\begin{align} g_{ij}(\beta) & = \langle \left(H_i-\langle H_i\rangle\right)\left( H_j-\langle H_j\right)\rangle \\ & = \sum_{x} P(x) \left(H_i-\langle H_i\rangle\right)\left( H_j-\langle H_j\rangle\right) \\ & = \sum_{x} P(x) \left(H_i + \frac{\partial\log Z}{\partial \beta_i}\right) \left(H_j + \frac{\partial\log Z}{\partial \beta_j}\right) \\ & = \sum_{x} P(x) \frac{\partial \log P(x)}{\partial \beta^i} \frac{\partial \log P(x)}{\partial \beta^j} \\ \end{align} </math> ここに、<math>P(x_1,x_2,\dots)</math> を <math>P(x)</math> と記すことして、和は確率変数 <math>X_k</math> のすべてを渡るものとする。もちろん、連続した値をとる確率変数に対して、和は積分に置き換わる。 奇妙なことに、フィッシャー情報計量ついての主要な記事<ref>[[:en:Fisher information metric|Fisher information metric]]を参照</ref>に記載されているように、適当に変数変換した後では{{仮リンク|フィッシャー情報計量|en|Fisher information metric}}は、平坦な[[ユークリッド計量]]として理解することもできる。<math>\beta</math> が複素数であるときには、結果として現れる計量は[[射影空間#フビニ・スタディ計量|フビニ・スタディ計量]]である。[[量子状態#純粋状態|純粋状態]]に代って、[[量子状態#混合状態|混合状態]]で書くときは、{{仮リンク|ビュレス計量|en|Bures metric}}として知られている。 <!---== Information geometry == The points <math>\beta</math> can be understood to form a space, and specifically, a [[manifold]]. Thus, it is reasonable to ask about the structure of this manifold; this is the task of [[information geometry]]. Multiple derivatives with regard to the Lagrange multipliers gives rise to a positive semi-definite [[covariance matrix]] :<math>g_{ij}(\beta) = \frac{\partial^2}{\partial \beta^i\partial \beta^j} \left(-\log Z(\beta)\right) = \langle \left(H_i-\langle H_i\rangle\right)\left( H_j-\langle H_j\rangle\right)\rangle</math> This matrix is positive semi-definite, and may be interpreted as a [[metric tensor]], specifically, a [[Riemannian metric]]. Equipping the space of lagrange multipliers with a metric in this way turns it into a [[Riemannian manifold]].<ref>Gavin E. Crooks, "Measuring thermodynamic length" (2007) を参照</ref> The study of such manifolds is referred to as [[information geometry]]; the metric above is the [[Fisher information metric]]. Here, <math>\beta</math> serves as a coordinate on the manifold. It is interesting to compare the above definition to the simpler [[Fisher information]], from which it is inspired. That the above defines the Fisher information metric can be readily seen by explicitly substituting for the expectation value: :<math>\begin{align} g_{ij}(\beta) & = \langle \left(H_i-\langle H_i\rangle\right)\left( H_j-\langle H_j\rangle\right)\rangle \\ & = \sum_{x} P(x) \left(H_i-\langle H_i\rangle\right)\left( H_j-\langle H_j\rangle\right) \\ & = \sum_{x} P(x) \left(H_i + \frac{\partial\log Z}{\partial \beta_i}\right) \left(H_j + \frac{\partial\log Z}{\partial \beta_j}\right) \\ & = \sum_{x} P(x) \frac{\partial \log P(x)}{\partial \beta^i} \frac{\partial \log P(x)}{\partial \beta^j} \\ \end{align} </math> where we've written <math>P(x)</math> for <math>P(x_1,x_2,\dots)</math> and the summation is understood to be over all values of all random variables <math>X_k</math>. For continuous-valued random variables, the summations are replaced by integrals, of course. Curiously, the [[Fisher information metric]] can also be understood as the flat-space [[Euclidean metric]], after appropriate change of variables, as described in the main article on it. When the <math>\beta</math> are complex-valued, the resulting metric is the [[Fubini-Study metric]]. When written in terms of [[mixed state (physics)|mixed states]], instead of [[pure state]]s, it is known as the [[Bures metric]].--> ==相関函数== 人工的に適当な函数 <math>J_k</math> を分配函数に導入すると、確率変数の期待値を得ることができる。このようにすると、例えば、 :<math>\begin{align} Z(\beta,J) & = Z(\beta,J_1,J_2,\dots) \\ & = \sum_{x_i} \exp \left(-\beta H(x_1,x_2,\dots) + \sum_n J_n x_n \right) \end{align} </math> と書き直すことにより、 :<math>\bold{E}[x_k] = \langle x_k \rangle = \left. \frac{\partial}{\partial J_k} \log Z(\beta,J)\right|_{J=0} </math> を <math>x_k</math> の期待値として得ることができる。[[場の量子論]]の[[経路積分|経路積分による定式化]]では、これらの任意函数は、みな共通に{{仮リンク|ソース場|en|source field}}の影響を受ける。 多重微分は、確率変数の[[相関函数]]を導く。このようにして変数 <math>x_j</math> と <math>x_k</math> の間の相関函数は、次の式で与えられる。 :<math>C(x_j,x_k) = \left. \frac{\partial}{\partial J_j} \frac{\partial}{\partial J_k} \log Z(\beta,J)\right|_{J=0} </math> ''H'' が[[微分作用素]]を持つ[[二次形式]]として書くことができる場合には、つまり次の式で書くことができる場合には、 :<math>H = \frac{1}{2} \sum_n x_n D x_n</math> 相関函数 <math>C(x_j,x_k)</math> は微分作用素(さらに[[フレドホルム理論]]となる)の[[グリーン函数]]であることと理解できる。場の量子論の設定では、この函数を[[プロパゲータ]](propagator)と言う。より高次のオーダーの相関は、n-点函数と呼ばれ、理論の{{仮リンク|有効作用|en|effective action}}(effective action)の定義に使われる。 <!---== Correlation functions== By introducing artificial auxiliary functions <math>J_k</math> into the partition function, it can then be used to obtain the expectation value of the random variables. Thus, for example, by writing :<math>\begin{align} Z(\beta,J) & = Z(\beta,J_1,J_2,\dots) \\ & = \sum_{x_i} \exp \left(-\beta H(x_1,x_2,\dots) + \sum_n J_n x_n \right) \end{align} </math> one then has :<math>\bold{E}[x_k] = \langle x_k \rangle = \left. \frac{\partial}{\partial J_k} \log Z(\beta,J)\right|_{J=0} </math> as the expectation value of <math>x_k</math>. In the [[path integral formulation]] of [[quantum field theory]], these auxiliary functions are commonly referred to as [[source field]]s. Multiple differentiations lead to the [[Ursell function|connected correlation function]]s of the random variables. Thus the correlation function <math>C(x_j,x_k)</math> between variables <math>x_j</math> and <math>x_k</math> is given by: :<math>C(x_j,x_k) = \left. \frac{\partial}{\partial J_j} \frac{\partial}{\partial J_k} \log Z(\beta,J)\right|_{J=0} </math> For the case where ''H'' can be written as a [[quadratic form]] involving a [[differential operator]], that is, as :<math>H = \frac{1}{2} \sum_n x_n D x_n</math> then the correlation function <math>C(x_j,x_k)</math> can be understood to be the [[Green's function]] for the differential operator (and generally giving rise to [[Fredholm theory]]). In the quantum field theory setting, such functions are referred to as [[propagator]]s; higher order correlators are called n-point functions; working with them defines the [[effective action]] of a theory.--> ==一般的性質== 分配函数は、[[臨界指数]]、{{仮リンク|普遍性 (力学系)|en|universality (dynamical systems)}}を議論する際に使用され、[[繰り込み群]]の主題でもある。 <!---==General properties== Partition functions are used to discuss [[critical scaling]], [[universality (dynamical systems)|universality]] and are subject to the [[renormalization group]].--> ==関連項目== * [[Exponential family]] * [[分配函数]](統計力学) * [[分配函数 (場の量子論)]] == 脚注 == {{脚注ヘルプ}} {{reflist}} == 参考文献 == *Gavin E. Crooks, "Measuring thermodynamic length" (2007), [https://arxiv.org/abs/0706.0559 ArXiv 0706.0559] {{DEFAULTSORT:ふんはいかんすう}} [[Category:分配函数| ]] [[Category:エントロピーと情報]] [[Category:関数]] [[Category:数学に関する記事]]
このページで使用されているテンプレート:
テンプレート:Lang-en-short
(
ソースを閲覧
)
テンプレート:Reflist
(
ソースを閲覧
)
テンプレート:仮リンク
(
ソースを閲覧
)
テンプレート:脚注ヘルプ
(
ソースを閲覧
)
テンプレート:要改訳
(
ソースを閲覧
)
分配函数 (数学)
に戻る。
ナビゲーション メニュー
個人用ツール
ログイン
名前空間
ページ
議論
日本語
表示
閲覧
ソースを閲覧
履歴表示
その他
検索
案内
メインページ
最近の更新
おまかせ表示
MediaWiki についてのヘルプ
特別ページ
ツール
リンク元
関連ページの更新状況
ページ情報