線形分類器のソースを表示
←
線形分類器
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
'''線形分類器'''({{lang-en-short|Linear classifier}})は、特徴の[[線形結合]]の値に基づいて分類を行う[[分類 (統計学)|確率的分類器]]である。[[機械学習]]において、分類は項目群を特徴値に基づいてグループに分類することを目的とする。 == 定義 == 分類器への入力特徴ベクトルが[[実数]]ベクトル <math>\vec x</math> であるとき、出力のスコアは次のようになる。 :<math>y = f(\vec{w}\cdot\vec{x}) = f\left(\sum_j w_j x_j\right)</math> ここで、<math>\vec w</math> は重み付けの実数ベクトル、''f'' は2つのベクトルの[[ドット積]]を必要な出力に変換する関数である。重み付けベクトル <math>\vec w</math> はラベル付き訓練例で学習することで変化していく。''f'' はあるしきい値以上の値を第一クラスに分類し、それ以外を第二クラスに分類するといった単純な関数であることが多い([[二項分類]])。より複雑な ''f'' としては、ある項目があるクラスに属する確率を与えるものなどがある。 二項分類問題は、高次元の入力空間を超平面で分割する操作として視覚化できる。その超平面の一方の側にある点は分類において "yes" とされた点であり、もう一方の側にある点は "no" とされた点である。 線形分類器は、特に <math>\vec x</math> が疎であるとき最も高速な分類器であるため、分類の速度が重要な場合に使われることが多い。ただし、[[決定木]]の方が速い場合もある。また、線形分類器は <math>\vec x</math> の次元が大きいときにうまく機能する。例えば、[[文書分類]]において <math>\vec x</math> の各要素は文書における個々の単語の出現回数などになる。そのような場合、線形分類器は[[正則化]]されているべきである。 == 生成的モデルと識別的モデル == 線形分類器 <math>\vec w</math> のパラメータを決定する方法には、生成的モデルと識別的モデルという2つの大分類がある<ref>T. Mitchell, Generative and Discriminative Classifiers: Naive Bayes and Logistic Regression. Draft Version, 2005 [https://www.cs.cmu.edu/~tom/mlbook/NBayesLogReg.pdf download(PDF)]</ref><ref>A. Y. Ng and M. I. Jordan. On Discriminative vs. Generative Classifiers: A comparison of logistic regression and Naive Bayes. in NIPS 14, 2002. [http://www.cs.berkeley.edu/~jordan/papers/ng-jordan-nips01.ps download(PS)]</ref>。1番目の[[生成的モデル]]は、[[条件付き確率]] <math>P(\vec x|{\rm class})</math> をモデル化したものである。そのようなアルゴリズムの例として次のようなものがある。 * 線形[[判別分析]] (LDA) - [[正規分布]]モデルかつ[[等分散性]]を仮定する。 * [[単純ベイズ分類器]] - [[確率論的独立性|独立]][[二項分布]]モデルを仮定する。 2番目の[[識別的モデル|識別モデル]]は、{{Ill2|訓練事例集合|en|Training set|label=訓練例}}の出力の品質を最大化しようとするものである。訓練コスト関数に項を追加することで、最終モデルの正則化を容易に行うことができる。線形分類器の識別的な訓練例として次のようなものがある。 * [[ロジスティック回帰]] - 観測された訓練例が分類器の出力に依存した二項分布モデルで生成されたものと見なし、<math>\vec w</math> を最尤推定する。 * [[パーセプトロン]] - 訓練例の学習時に発生した全ての誤りを正そうとするアルゴリズム * 線形[[サポートベクターマシン]] - 判断超平面と訓練例との間の余白を最大化するアルゴリズム なお英語でいうと、線形判別分析(Linear Discriminant Analysis)と識別モデル(Discriminative Model)は関連がありそうだが、上のように分類されている。LDAは[[主成分分析]](Principal Component Analysis、PCA)との対比で意味を持つ名前である。LDAは[[教師あり学習]]アルゴリズムであり、PCAは[[教師なし学習]]アルゴリズムである。<ref>R.O. Duda, P.E. Hart, D.G. Stork, "Pattern Classification", Wiley, (2001). ISBN 0-471-05669-3</ref> 識別訓練は条件付き確率分布をモデル化する方式よりも正確であることが多い。しかし、欠落データの扱いは条件付き確率分布モデルの方が容易なことが多い。 上述の線形分類器のアルゴリズムはいずれも、[[カーネルトリック]]を使って、異なる入力空間 <math>\varphi(\vec x)</math> 上の非線形アルゴリズムに変換できる。 == 関連項目 == * [[二次分類器]] * [[分類 (統計学)]] == 脚注 == {{Reflist}} == 参考文献 == # Y. Yang, X. Liu, "A re-examination of text categorization", Proc. ACM SIGIR Conference, pp. 42-49, (1999). [http://citeseer.ist.psu.edu/yang99reexamination.html paper @ citeseer] # R. Herbrich, "Learning Kernel Classifiers: Theory and Algorithms," MIT Press, (2001). ISBN 0-262-08306-X {{統計学}} {{DEFAULTSORT:せんけいふんるいき}} [[Category:分類アルゴリズム]] [[Category:統計学]] [[Category:数学に関する記事]]
このページで使用されているテンプレート:
テンプレート:Ill2
(
ソースを閲覧
)
テンプレート:Lang-en-short
(
ソースを閲覧
)
テンプレート:Reflist
(
ソースを閲覧
)
テンプレート:統計学
(
ソースを閲覧
)
線形分類器
に戻る。
ナビゲーション メニュー
個人用ツール
ログイン
名前空間
ページ
議論
日本語
表示
閲覧
ソースを閲覧
履歴表示
その他
検索
案内
メインページ
最近の更新
おまかせ表示
MediaWiki についてのヘルプ
特別ページ
ツール
リンク元
関連ページの更新状況
ページ情報