ラッソ回帰

提供: testwiki
ナビゲーションに移動 検索に移動

テンプレート:翻訳直後テンプレート:要改訳

ラッソ回帰(ラッソかいき、least absolute shrinkage and selection operatorLassoLASSO)は、変数選択正則化の両方を実行し、生成する統計モデルの予測精度と解釈可能性を向上させる回帰分析手法。1986年に地球物理学の文献で最初に導入され[1]、その後1996年にテンプレート:仮リンク[2] が独自に再発見して一般化した。

ラッソ回帰はもともと最小二乗法で定義されていた。最小二乗法の単純なケースでは、予測器の振る舞いについて多くの事実が分かる。すなわち、リッジ回帰テンプレート:仮リンクとの関係、ラッソ係数予測といわゆるソフトしきい値処理(soft thresholding)との関係である。

一般化線形モデル一般化推定方程式比例ハザードモデルテンプレート:仮リンクなど、さまざまな統計モデルに簡単に拡張できる[2][3]

動機

ラッソ回帰は、与えられた共変量の一部のみ最終モデルで使用することにより、回帰モデルの予測精度と解釈可能性を向上させるために導入された[2][4]

ラッソ回帰以前は、段階的選択が変数選択に広く用いられていた。これは、少数の共変量のみが結果と強い関係がある場合などには予測精度を向上させるが、それ以外の場合は、予測誤差を悪化させる可能性がある。 また、大きな回帰係数を縮小して過剰適合を減らすリッジ回帰も予測精度を向上させるために用いられていたが、リッジ回帰では共変量選択を実行しない。

ラッソ回帰は、回帰係数の絶対値の合計を固定値よりも小さくすることでこれらの目標を両方とも達成できる。これにより、特定の係数が強制的にゼロに設定され、これらの係数を含まないより単純なモデルが効果的に選択される。この考え方は、リッジ回帰に似ているが、リッジ回帰の場合はこれは係数のサイズを縮小するだけであり、ゼロに設定することはない。

基本形

ラッソ回帰はもともと最小二乗法の場面で導入された。このケースを最初に検討することは有益である。

それぞれが p 個の共変量と単一の結果で構成される N 個のケースで構成されるサンプルを考える。

yi を結果、xi:=(x1,x2,,xp)Ti 番目のケースの共変量ベクトルとする。 ラッソ回帰では、次の式を解くことを考える。

minβ0,β{i=1N(yiβ0xiTβ)2} subject to j=1p|βj|t. [2]

ここで、t を正則化の量を決定する事前に指定された自由パラメーターとする。 共変量行列 X について、Xij=(xi)j、すなわち xiTX の第 i 行とすると、次のように簡潔に記述することができる。

minβ0,β{1Nyβ01NXβ22} subject to β1t.

ここで、up=(i=1N|ui|p)1/p を標準 pノルムとし、1N は 1 が N 個並んだ縦ベクトルとする。

データポイント xi のスカラー平均を x¯、応答変数 yi の平均を y¯ と記載すると、β0 の推定値 β^0=y¯x¯Tβ を用いて下記のように記述できる。

yiβ^0xiTβ=yi(y¯x¯Tβ)xiTβ=(yiy¯)(xix¯)Tβ,

したがって、中央に配置された(ゼロ平均化された)変数を処理するのが標準的である。解が測定スケールに依存しないよう、共変量は通常、標準化されている (i=1Nxi2=1)

参考のために書き直すと

minβp{1NyXβ22} subject to β1t.

これは、ラグランジュの未定乗数法に基づいて書き直すと、下記の形式と同値である。

minβp{1NyXβ22+λβ1}

ここで、tλ との関係はデータに依存する。

正規直交共変量

ラッソ回帰の推定量に関する基本的な性質を下記に示す。

まず、共変量が正規直交であると仮定すると、内積 () およびクロネッカーのデルタ δij を用いて (xixj)=δij と記載できる。 これは、XTX=I と記載しても同等である。

次に、勾配法を使用すると、

β^j=SNλ(β^jOLS)=β^jOLSmax(0,1Nλ|β^jOLS|) where β^OLS=(XTX)1XTy [2]

Sα はソフトしきい値演算子と呼ばれる。これは、小さい値をゼロに設定し、値をゼロに変換する(十分に小さい場合は正確にゼロにする)ためである。ハードしきい値演算子 Hα は小さい値をゼロにして大きい値を変更しない。

これは、下記の最小化を目的とするリッジ回帰と比較可能である。

minβp{1NyXβ22+λβ22}

これから

β^j=(1+Nλ)1β^jOLS.

したがって、リッジ回帰は、(1+Nλ)1 という一様係数で縮小することになり、係数をゼロに設定しない。

ベストサブセット選択回帰と比較することもできる。この手法では、下記の最小化を目標とする。

minβp{1NyXβ22+λβ0}

ここで、0 は 「 0 ノルム」である。z の非ゼロ成分が m 個あるとき、z=m と定義する。

この場合、以下が示される。

β^j=HNλ(β^jOLS)=β^jOLSI(|β^jOLS|Nλ)

ここで、Hα はいわゆるハードしきい値演算子で、I はインジケーター関数(引数が true の場合は 1、それ以外の場合は 0)である。

従って、ラッソ回帰による推定値は、リッジ回帰とベストサブセット選択回帰の両方による推定値と似た特徴を持つ。すなわち、リッジ回帰のようにすべての係数の大きさを縮小するだけでなく、ベストサブセット選択回帰と同様に、それらの一部をゼロに設定する。さらに、リッジ回帰はすべての係数を定数係数でスケーリングするが、ラッソ回帰は代わりに定数を用いて係数をゼロに近づけて、到達した場合は係数をゼロに設定する。

一般的な形式

ラッソ正則化は、一般化線形モデル、一般化推定方程式、比例ハザードモデル、一般的なM-推定量など、さまざまな目的関数に拡張できる[2][3]。 目的関数を下記とすると

1Ni=1Nf(xi,yi,α,β)

ラッソ正則化した予測値は次の解となる

minα,β1Ni=1Nf(xi,yi,α,β)subject to β1t

ここで、β だけが罰則を受け、α は許可された値を自由に取ることができる。上記の基本形において、β0 が罰則を受けなかったことに相当する。

解釈

幾何学的解釈

2次元のパラメータ空間(w1, w2)における、ラッソ回帰(L1-norm)およびリッジ回帰(L2-norm)の制約領域。

上で説明したように、ラッソ回帰は係数をゼロに設定できるが、表面的には類似しているように見えるリッジ回帰はできない。これは、2つのケースでの制約境界の形状の違いによるものである。ラッソ回帰とリッジ回帰の両方は、同じ目的関数を最小化すると解釈できる。

minβ0,β{1Nyβ0Xβ22}

ここで、制約条件が異なる。 ラッソ回帰での制約条件は β1t である。 リッジ回帰での制約条件は β22t である。

2次元のパラメータ空間(w1, w2)における制約領域を図示した。 ラッソ回帰(L1-norm)では正方形に相当する(一般に n 次元の正軸体)。 リッジ回帰(L2-norm)では円に相当する(一般に n 次元の超球面)。 パラメータは制約条件としてパラメータ空間のこれらの領域を動いた中で、目的関数を最小化する値を取る。 ラッソ回帰では、「角(かど)」が存在することで、特定の係数をゼロにした地点を選びやすくなる。

ベイジアン解釈

ラプラス分布は、平均で鋭くピークに達し、正規分布に比べて確率密度が集中している。

係数の事前分布として正規分布を仮定した場合の MAP推定値がリッジ回帰に相当するのと同様に、係数の事前分布としてラプラス分布を仮定した場合の MAP推定値がラッソ回帰に相当する。

ラプラス分布はゼロで鋭くピークに達し(その1次導関数は不連続)、確率分布は正規分布よりもゼロに近く集中する。 このことからも、なぜラッソ回帰では一部の係数をゼロに設定する傾向があるのに、リッジ回帰はそうではないのか、ということを説明できる[2]

p(𝐲,β𝐗)=p(𝐲β,𝐗)p(β𝐗)=n=1Np(ynβ,𝐱n)k=0Kp(βk)

すなわち、

logp(𝐲,β𝐗)=n=1Nlogp(ynβ,𝐱n)+k=0Klogp(βk)

である。

ここで、𝐲 の事前分布として平均 𝐗β、分散 σ2正規分布を仮定すると、右辺第1項は

n=1Nlog(12πσexp((yn𝐱nβ)22σ2))=Nlog(2πσ)12σ2n=1N(yn𝐱nβ)2

さらに、パラメータ β の事前分布として平均 0、分散 2b2ラプラス分布を仮定すると、右辺第2項は

k=0Klog(12bexp(|βk|b))=(K+1)log(2b)1bk=0K|βk|

以上から、λ=2σ2bN を用いて次のように表される。

logp(𝐲,β𝐗)=N2σ2(1Nn=1N(yn𝐱nβ)2+λk=0K|βi|)+const.

括弧内は、ラグランジュの未定乗数法に基づく記載と同等である。

一般化

エラスティックネット

テンプレート:Main 2005年、Zou と Hastie は、ラッソ回帰に存在する欠点に対処するためにエラスティックネットを導入した[5]。 ラッソ回帰は、標本数が共変量の数よりも少ないとき(n<p)、標本数(n 個)までしか共変量を選択できない。 また、ラッソ回帰では高度に相関する共変量の組み合わせから1つしか共変量を選択しないことが多いため、共変量が強く相関しているならば、パフォーマンスがリッジ回帰に劣る場合がある。

エラスティックネットは 2 によるペナルティ項を追加することによってラッソ回帰を拡張し、下記の式を得る。

minβp{yXβ22+λ1β1+λ2β22},

これは次の式を解くことと同じである。

minβ0,β{yβ0Xβ22} subject to (1α)β1+αβ22t, where α=λ2λ1+λ2.

この問題は単純なラッソ回帰の形式で記述できる。

minβ*p{y*X*β*22+λ*β*1}

ただし、

X(n+p)×p*=(1+λ2)1/2(Xλ21/2Ip×p) 、  y(n+p)*=(y0p),λ*=λ11+λ2 、  β*=1+λ2β.

そして、β^=β^*1+λ2 、共変量が互いに直交する場合、

β^j=β^j*,OLS1+λ2max(0,1λ*|β^j*,OLS|)=β^jOLS1+λ2max(0,1λ1|β^jOLS|)=(1+λ2)1β^jlasso.

エラスティックネットのペナルティは、ラッソ回帰およびリッジ回帰のペナルティの組み合わせに相当する。

正規化パラメータ λ1,λ2 は、交差検証法を用いたグリッド・サーチにより選択されることが多い。

Adaptive Lasso

2006年、オラクル性 oracle properties を持つように、罰則項に重みを乗じる手法が提唱された[6]

argminβ𝐲j=1p𝐱jβj+λj=1pwj|βj|.

MI-LASSO

2013年、多重代入されたデータセットに対して、ラッソ回帰により変数選択する手法が提唱された[7]

正則化パラメータの選択

収縮の強度と変数の選択を制御する正則化パラメータ λ を適切に選択することで、予測の精度と解釈可能性を向上することができる。正則化が強くなりすぎると、重要な変数がモデルから削除される、係数が過度に縮小される等の可能性がある。 正則化パラメータ λ の選択には交差検証法がよく用いられる。

赤池情報量規準(AIC)やベイズ情報量規準(BIC)などのテンプレート:仮リンクは、交差検証法よりも計算が高速であり、小さいサンプルでもパフォーマンスが変動しにくいため、交差検証よりも好ましい場合がある[8]。 情報量規準は、モデルのサンプル内精度を最大化することによって推定器の正則化パラメータを選択すると同時に、その有効なパラメーターの数/自由度にペナルティを課す。

関連項目

脚注

テンプレート:脚注ヘルプ

出典

テンプレート:Reflist

テンプレート:統計学