一元配置分散分析のソースを表示
←
一元配置分散分析
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
[[統計学]]において、'''一元配置[[分散分析]]'''(いちげんはいちぶんさんぶんせき、{{lang-en-short|one-way analysis of variance}}、略称: '''one-way ANOVA''')は、[[F分布]]を用いて3つ以上の標本の平均を比較するために使われる手法である。この手法は[[尺度水準|数値データ]]に対してのみ使うことができる<ref name="Howell 2002 324–325">{{cite book |title=Statistical Methods for Psychology |last=Howell |first=David |authorlink= |coauthors= |year=2002 |publisher=Duxbury |location= |isbn=0-534-37770-X |pages=324–325}}</ref>。 ANOVAは、2つ以上の群の中の標本が同じ平均値を持つ母集団から取られた、という[[帰無仮説]]を検定する。これを行うために、2つの推定量が母集団の分散から作られる。これらの推定量は様々な仮定に依っている。ANOVA は、平均間の計算された分散と標本内の分散の比であるF統計量を生成する。もし複数の群の平均が同じ平均値の母集団から取られれば、[[中心極限定理]]にしたがって群の平均間の分散は標本の分散よりも低くなる。したがって、高い比は標本が異なる平均値を持つ母集団から取られたものであることを示唆する<ref name="Howell 2002 324–325"/>。 しかしながら、典型的には、one-way ANOVAは少なくとも3つ以上の群間の差の検定のために使われる。これは、2群の場合は[[t検定]]で取り扱うことができるためである。比較する平均が2つしかない時は、[[t検定]]と[[F検定]]は等価である。ANOVAと''t''との間の関係は''F'' = ''t''<sup>2</sup>によって与えられる。One-way ANOVAの拡張は、1つの従属変数に対する2つの異なる分類の独立変数の影響を調べる[[二元配置分散分析]]である。 ==仮定== One-way ANOVAの結果は以下の仮定が満される限りにおいて信頼性があると見なすことができる。 * 応答関数[[誤差と残差|残差]]は[[正規分布]]する(あるいは近似的に正規分布する)。 * 標本は独立である。 * 母集団の分散は等しい。 * 任意の群に対する応答は[[独立同一分布した確率変数|互いに独立で同一の分布に従う]]正規確率変数である([[単純確率変数]]ではない)。 ANOVAは正規性の仮定の違反に関しては比較的頑健な手順である<ref name=Kirk>{{cite book |first=RE |last=Kirk |year=1995 |title=Experimental Design: Procedures For The Behavioral Sciences |edition=3 |location=Pacific Grove, CA, USA |publisher=Brooks/Cole}}</ref>。もしデータが[[順序尺度]]であれば、[[クラスカル=ウォリス一元配置分散分析]]といったノンパラメトリックな代替法を用いなければならない。 ==固定効果、完全ランダム化実験、非釣り合い型データの場合== ===モデル=== 正規線形モデルは、完全に同じようなベル(正規)カーブで異なる平均値の確率分布を持つ処理群を記述する。ゆえに、モデルのフィッティングは、それぞれの処理群の平均値と分散計算(処理群内の平均分散が使われる)のみを必要とする。平均と分散の計算は仮説検定の一部として行われる。 完全にランダム化された実験のための一般的に使われる正規線形モデルは<ref>{{cite book | last = Montgomery | first = Douglas C. | title = Design and Analysis of Experiments | publisher = Wiley | location = New York | year = 2001 | edition = 5th | page = Section 3-2 | isbn = 9780471316497}}</ref> : <math>y_{i,j}=\mu_j+\varepsilon_{i,j}</math>(平均モデル) あるいは : <math>y_{i,j}=\mu+\tau_j+\varepsilon_{i,j}</math>(効果モデル) である。上式において、 * <math>i=1,\dotsc,I</math>は実験単位の添え字 * <math>j=1,\dotsc,J</math>は処理群の添え字 * <math>I_j</math>はj番目の処理群における実験単位の数 * <math>I = \sum_j I_j</math>は実験単位の総数 * <math>y_{i,j}</math>は観測 * <math>\mu_j</math>はj番目の処理群の観測の平均 * <math>\mu</math>観測の総平均 * <math>\tau_j</math>はj番目の処理効果(総平均からのずれ) * <math>\sum\tau_j=0</math> * <math>\mu_j=\mu+\tau_j</math> * <math>\varepsilon \thicksim N(0, \sigma^2)</math>, <math>\varepsilon_{i,j}</math>は正規分布したゼロ平均のランダム誤差 である。 実験単位の添え字iは複数の方法で解釈できる。一部の実験では、同じ実験単位が処理の範囲の対象となり、iは特定の単位を指す。その他では、それぞれの処理群が異なる実験単位の組を持ち、iは単純にj番目の表の添え字となる。 ===データとデータの統計的概要=== {| cellpadding="2" style="border: 1px solid darkgray; width: 90%; text-align: center;" |+ ANOVAデータの構造化、非釣り合い型、単一因子 |- || ! colspan="6" style="text-align: center; border: 1px solid darkgray;" | 群観測の一覧 |- | style="width:10%" | | style="width:10%" | 1 | style="width:10%" | 2 | style="width: 5%" | <math>\dotso</math> | style="width:10%" | <math>j</math> | style="width: 5%" | <math>\dotso</math> | style="width:10%" | <math>J</math> | style="width:10%" | | style="width:20%" | |- || 1 || <math>y_{11}</math> || <math>y_{12}</math> || || || || <math>y_{1J}</math> |- || 2 || <math>y_{21}</math> || <math>y_{22}</math> || || || || <math>y_{2J}</math> |- || 3 || |- || <math>\vdots</math> || |- || <math>i</math> || || || || <math>y_{ij}</math> || |- || <math>\vdots</math> || |- || || <math>y_{I_{1}1}</math> ||<math>\dotso</math> |- || || || <math>y_{I_{2}2}</math> ||<math>\dotso</math> |- | style="height:50px;" | || |- || ! colspan="6" style="border: 1px solid darkgray;" |群の要約統計量 ! colspan="2" style="border: 1px solid darkgray;" | 総要約統計量 |- | style="text-align: left" | 観測の数 || <math>I_1</math> || <math>I_2</math> || <math>\dotso</math> || <math>I_j</math> || <math>\dotso</math> || <math>I_J</math> | style="text-align: left" | 観測の数 || <math>I = \sum I_j</math> |- | style="text-align: left" | 和 || || || || <math>\sum_i y_{ij}</math> || || | style="text-align: left" | 和 || <math>\sum_j \sum_i y_{ij}</math> |- | style="text-align: left" | 平方和 || || || || <math>\sum_i (y_{ij})^2</math> || || | style="text-align: left" | 平方和 || <math>\sum_j \sum_i (y_{ij})^2</math> |- | style="text-align: left" | 平均 || <math>m_1</math> || <math>\dotso</math> || || <math>m_j</math> || <math>\dotso</math> || <math>m_J</math> | style="text-align: left" | 平均 || <math>m</math> |- | style="text-align: left" | 分散 || <math>s_1^2</math>|| <math>\dotso</math> || || <math>s_j^2</math> || <math>\dotso</math> || <math>s_J^2</math> | style="text-align: left" | 分散 || <math>s^2</math> |} モデルと要約を比較する: <math>\mu = m</math>および<math>\mu_j = m_j</math>。総平均および総分散は、群平均と群分散からではなく、総和から計算される。 ===仮説検定=== 要約統計量を所与として、仮説検定の計算を表形式で示している。平方和の2つの列が説明値を示しているのに対して、結果の説明には1つの列しか必要ではない。 {| cellpadding="2" style="border:1px solid darkgray; text-align:center;" |+ ANOVA表、固定モデル、単一因子、完全ランダム化実験 |- !変動要因 !平方和 (SS) !平方和 (SS) !自由度 (DF) !平方平均 (MS) !F |- ! !説明SS<ref> {{Cite book | last = Moore | first = David S. | last2 = McCabe | first2 = George P. | title = Introduction to the Practice of Statistics | place = | publisher = W H Freeman & Co. | year = 2003 | edition = 4th | page = 764 | isbn = 0716796570 }} </ref> !計算SS<ref> {{Cite book | last = Winkler | first = Robert L. | last2 = Hays | first2 = William L. | title = Statistics: Probability, Inference, and Decision | place = New York | publisher = Holt, Rinehart and Winston | year = 1975 | edition = 2nd | page = 761 }} </ref> !DF !MS ! |- !処理 ! <math>\sum_{Treatments} I_j (m_j-m)^2</math> ! style="padding-left:1em;padding-right:1em" | <math>\sum_j \frac{(\sum_i y_{ij})^2}{I_j} - \frac{(\sum_j \sum_i y_{ij})^2}{I}</math> ! style="padding-left:1em;padding-right:1em" | <math>J-1</math> ! style="padding-left:1em;padding-right:1em" | <math>\frac{SS_{Treatment}}{DF_{Treatment}}</math> ! style="padding-left:1em;padding-right:1em" | <math>\frac{MS_{Treatment}}{MS_{Error}}</math> |- !誤差 ! <math>\sum_{Treatments} (I_j-1)s_j^2</math> ! <math>\sum_j \sum_i y_{ij}^2 - \sum_j \frac{(\sum_i y_{ij})^2}{I_j}</math> ! <math>I-J</math> ! <math>\frac{SS_{Error}}{DF_{Error}}</math> | |- !総計 ! <math>\sum_{Observations} (y_{ij}-m)^2</math> ! <math>\sum_j \sum_i y_{ij}^2 - \frac{(\sum_j \sum_i y_{ij})^2}{I}</math> ! <math>I-1</math> |} <math>MS_{Error}</math>は、モデルの<math>\sigma^2</math>に対応する分散の推定量である。 ===分析の概要=== 中心的なANOVA解析は一連の計算から構成される。データを表形式でまとめ、次に *それぞれの処理群は、実験単位の数、2つの和、1つの平均、1つの分散によって要約される。処理群の要約統計量が合わさり、実験単位の総数と総和が与えられる。総平均と総分散は総和から計算される。処理平均と総平均がモデルで使われる。 *3つの自由度 (DF) および平方和 (SS) は要約統計量から計算される。次に、平方平均 (MS) が計算され、比からFが決定される。 *計算機は通常、Fから[[p値]]を決定し、これによって処理が有意に異なる結果を生んだかどうかが決定される。もし結果が有意であれば、一時的モデルは妥当性があるとされる。 実験が釣り合い型の場合は、全ての<math>I_j</math>項は等しく、したがってSS式が単純になる。 実験単位(あるいは環境効果)が一様ではないより複雑な実験では、行の統計量も分析に使われる。モデルは<math>i</math>に依存した項を含む。追加項の決定は利用できる自由度の数を減少させる。 ==脚注== {{Reflist}} ==参考文献== * {{cite book |author=[[George Casella]] |date=18 April 2008 |title=Statistical design |url=http://www.springer.com/statistics/statistical+theory+and+methods/book/978-0-387-75964-7 |publisher=[[Springer Science+Business Media|Springer]] |isbn=978-0-387-75965-4 }} ==関連項目== * [[F検定]] {{DEFAULTSORT:いちけんはいちふんさんふんせき}} [[Category:分散分析]] [[Category:統計検定]] [[Category:数学に関する記事]]
このページで使用されているテンプレート:
テンプレート:Cite book
(
ソースを閲覧
)
テンプレート:Lang-en-short
(
ソースを閲覧
)
テンプレート:Reflist
(
ソースを閲覧
)
一元配置分散分析
に戻る。
ナビゲーション メニュー
個人用ツール
ログイン
名前空間
ページ
議論
日本語
表示
閲覧
ソースを閲覧
履歴表示
その他
検索
案内
メインページ
最近の更新
おまかせ表示
MediaWiki についてのヘルプ
特別ページ
ツール
リンク元
関連ページの更新状況
ページ情報