テンソル分解のソースを表示
←
テンソル分解
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
'''テンソル分解'''({{lang-en-short|tensor decomposition}})とは[[テンソル]]をより[[テンソル空間|階数]]の少ない[[テンソル]](含む[[行列]]や[[ベクトル]])の積和で表現する数学的な手法の総称である。[[行列]]に対する[[行列の分解|行列分解]]の[[テンソル]]への拡張とみなすことができる。 == よく用いられるテンソル分解 == 上述の様にテンソル分解には非常に多彩な自由度が存在するが、主に歴史的な経緯からいくつかのよく用いられる分解が存在する。 === CP分解 === {{仮リンク|CP分解|en|Tensor_rank_decomposition}}は[[テンソル]]を[[ベクトル]]の[[クロネッカー積]]の和で表現する方法である。 <math display="block">\mathcal{A} = \sum_{i=1}^{R} \lambda_i \mathbf{a}_i^1 \otimes \mathbf{a}_i^2 \otimes \cdots \otimes \mathbf{a}_i^m,</math> ここで<math>\mathcal{A} \in \mathbb{R}^{N_1 \times N_2 \times \cdots \times N_m}</math>は''m''階の[[テンソル]]、<math> \mathbf{a} \in \mathbb{R}^{N_i}</math>は<math> N_i </math>次元の[[ベクトル]]である。<math> \lambda_i \in \mathbb{R}</math>は各項の重みを表す係数であり、''R''は[[テンソル]]のランク{{efn|ランクはrankであり階数と訳されるべきであるがorderの方を階数と訳してしまったため通常はカタカナ表記でランクと書くことで区別している。本来はorderの方は次数と訳すべきであっただろう}}と呼ばれる量である。 === タッカー分解 === {{仮リンク|タッカー分解|en|Tucker_decomposition}}は''m''階の[[テンソル]]を[[テンソル]]と[[ベクトル]]の[[テンソル積]]の和で表現する方法である。 <math display="block">\mathcal{A} = \sum_{j_1=1}^{N_1} \sum_{j_2=1}^{N_2} \cdots \sum_{j_m=1}^{N_d} s_{j_1,j_2,\ldots,j_m} \mathbf{u}_{j_1}^1 \otimes \mathbf{u}_{j_2}^2 \otimes \cdots \otimes \mathbf{u}_{j_m}^m,</math> 但し、<math> \mathbf{u}^i \in \mathbb{R}^{N_i \times N_i}</math>は[[直交行列]]である。 === テンソルトレイン分解 === テンソルトレイン分解<ref>{{cite |first = Ivan|last=Oseledets|authorlink=Ivan Oseledets| title = Tensor-Train Decomposition| journal = SIAM J. Sci. Comput | year = 2011|volume = 33|number =5|pages=2295–2317|doi=10.1137/090752286}}</ref>は[[テンソル]]を三階の[[テンソル]]の[[テンソル積]]の和で表現する方法{{efn|両端は行列}}である。[[量子力学]]の分野では、[[行列積状態]](MPS: Matrix Product State)(への分解)とも呼ばれる。 <math display="block"> \mathcal{A}_{j_1j_2 \cdots j_m} = \sum_{i_1=1}^{R_1}\sum_{i_2=2}^{R_1}\cdots \sum_{i_{m-1}=1}^{R_{m-1}} U_{i_1 j_1} U_{i_1 i_2 j_2} \cdots U_{i_{m-2} i_{m-1} j_{m-1}} U_{i_{m-1} j_m}</math> ここで<math>U_{i_1 j_1} \in \mathbb{R}^{R_1 \times N_1}, U_{i_{m-1} j_m} \in \mathbb{R}^{R_{m-1} \times N_m}, U_{i_{k-1} i_k j_k } \in \mathbb{R}^{R_{k-1} \times R_k \times N_k}</math>である。 == テンソル分解のアルゴリズム == 最適化アルゴリズムとしては、CP分解では{{仮リンク|交互最小二乗法|en|Matrix_completion#Alternating_least_squares_minimization}}、タッカー分解では{{仮リンク|HOSVD|en|Higher-order_singular_value_decomposition}}(Higher order singular value decomposition)やHOOI(higher order orthogonal iteration){{efn|HOOIはHOSVDの結果を初期条件として交互最小二乗法を行うアルゴリズムである}}、テンソルトレイン分解ではTT-SVD (Tensor-train singular value decomposition)などが知られている。 == 脚注 == {{脚注ヘルプ}} === 注釈 === {{Notelist}} === 出典 === {{Reflist}} === 参考文献 === * {{cite book|title = 関係データ学習|first1 = 勝彦|last1=石黒 |first2 = 浩平|last2=林 |publisher=講談社 |ISBN = 978-4-06-152921-2}} * {{cite |first1 = Tamara |last1= Kolda |first2 = Brett|last2= Bader|authorlink1=Tamara Kolda |authorlink2= Brett Bader | title = Tensor Decompositions and Applications| journal = SIAM REVIEW | year = 2009 |volume=51 |number=3 |pages=455-500|doi = 10.1137/07070111X}} * Andrzej Cichocki; Rafel Zdunek; Anh Huy Phan; Shun-ichi Amari: ''Nonnegative Matrix and Tensor Factorizations: Applications to Exploratory Multi-way Data Analysis and Blind Source Separation'', John Wiley & Sons,ISBN 978-0-470-74666-0 (2009). {{Math-stub}} {{Tensors}} {{デフォルトソート:てんそるぶんかい}} [[Category:幾何学]] [[Category:物理数学]] [[Category:情報科学]] [[Category:テンソル|*]] [[Category:数学に関する記事]]
このページで使用されているテンプレート:
テンプレート:Cite
(
ソースを閲覧
)
テンプレート:Cite book
(
ソースを閲覧
)
テンプレート:Efn
(
ソースを閲覧
)
テンプレート:Lang-en-short
(
ソースを閲覧
)
テンプレート:Math-stub
(
ソースを閲覧
)
テンプレート:Notelist
(
ソースを閲覧
)
テンプレート:Reflist
(
ソースを閲覧
)
テンプレート:Tensors
(
ソースを閲覧
)
テンプレート:仮リンク
(
ソースを閲覧
)
テンプレート:脚注ヘルプ
(
ソースを閲覧
)
テンソル分解
に戻る。
ナビゲーション メニュー
個人用ツール
ログイン
名前空間
ページ
議論
日本語
表示
閲覧
ソースを閲覧
履歴表示
その他
検索
案内
メインページ
最近の更新
おまかせ表示
MediaWiki についてのヘルプ
特別ページ
ツール
リンク元
関連ページの更新状況
ページ情報