AdaBoost

提供: testwiki
ナビゲーションに移動 検索に移動

AdaBoost(Adaptive Boosting、エイダブースト、アダブースト)は、Yoav FreundRobert Schapire によって考案された[1]機械学習アルゴリズムである。メタアルゴリズムであり、他の多くの学習アルゴリズムと組み合わせて利用することで、そのパフォーマンスを改善することができる。AdaBoost は前の分類機の間違いに応じて調整された次の分類機を作るという意味で適応的 (Adaptive) である。AdaBoost はノイズの多いデータや異常値に影響を受ける。しかし、いくつかの場面では、多くの学習アルゴリズムより過剰適合の影響を受けにくい。

AdaBoost は、それぞれの標本に対し、テンプレート:仮リンク t を、t=1 から t=T まで順に適用し、それぞれの分類器が正解したか否かを判断する。間違って分類された標本に対応する重み Dt は、より重くされる(あるいは、正しく分類された標本の場合は、重みを減らす)。これらの標本に対する重みから、次の t のループでは正しい分類器を早く探す事が出来る。

二分類のアルゴリズム

Given: (x1,y1),,(xm,ym) where xiX,yiY={1,+1}

Initialize D1(i)=1m,i=1,,m.

For t=1,,T:

  • Find the classifier ht:X{1,+1} that minimizes the error with respect to the distribution Dt:
ht=argminhjϵj, where ϵj=i=1mDt(i)[yihj(xi)]
  • if ϵt>0.5 then stop.
  • Choose αt𝐑, typically αt=12ln1ϵtϵt where ϵt is the weighted error rate of classifier ht.
  • Update:
Dt+1(i)=Dt(i)exp(αtyiht(xi))Zt

where Zt is a normalization factor (chosen so that Dt+1 will be a probability distribution, i.e. sum one over all x).

Output the final classifier:

H(x)=sign(t=1Tαtht(x))

The equation to update the distribution Dt is constructed so that:

αtyiht(xi){<0,y(i)=ht(xi)>0,y(i)ht(xi)

Thus, after selecting an optimal classifier ht for the distribution Dt, the examples xi that the classifier ht identified correctly are weighted less and those that it identified incorrectly are weighted more. Therefore, when the algorithm is testing the classifiers on the distribution Dt+1, it will select a classifier that better identifies those examples that the previous classifer missed.

ブースティングの統計的理解

ブースティングは凸集合の関数上に関する凸損失関数の最小化とみなすことができる[2]。特に、損失関数を最小化するために指数関数の損失関数:

ieyif(xi)

および関数に対して探索を行う:

f=tαtht

を用いる。

関連項目

脚注

テンプレート:Reflist

外部リンク

  • icsiboost, an open source implementation of Boostexter
  • NPatternRecognizer , a fast machine learning algorithm library written in C#. It contains support vector machine, neural networks, bayes, boost, k-nearest neighbor, decision tree, ..., etc.
  1. テンプレート:Cite Web
  2. T. Zhang, "Convex Risk Minimization", Annals of Statistics, 2004.