転移学習のソースを表示
←
転移学習
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
'''転移学習'''(てんいがくしゅう、{{Lang-en-short|transfer learning}})は、ある問題を解決する際に得た知識を蓄積し、関連する別の問題にそれを適用することに焦点を当てた[[機械学習]]の研究領域である<ref>{{cite web |last1=West |first1=Jeremy |first2=Dan |last2=Ventura |first3=Sean |last3=Warnick |url=http://cpms.byu.edu/springresearch/abstract-entry?id=861 |title=Spring Research Presentation: A Theoretical Foundation for Inductive Transfer |publisher=Brigham Young University, College of Physical and Mathematical Sciences |year=2007 |access-date=2007-08-05 |url-status=dead |archive-url=https://web.archive.org/web/20070801120743/http://cpms.byu.edu/springresearch/abstract-entry?id=861 |archive-date=2007-08-01}}</ref>。たとえば、乗用車を[[コンピュータビジョン|認識]]するために得た知識は、トラックを認識するためにも応用できるかもしれない。この研究領域は、{{仮リンク|学習転移|en|Transfer of learning}}に関する長い歴史を持つ心理学の文献と何かの関係をもつが、2つの分野の実用的な結びつきは限定的である。実用的な面では、過去に学習した仕事の情報を新たな仕事の学習のために再利用または転送することで、[[強化学習]]手段のサンプル効率を大幅に改善することができる可能性がある<ref>{{Cite journal|last1=George Karimpanal|first1=Thommen|last2=Bouffanais|first2=Roland|date=2019|title=Self-organizing maps for storage and transfer of knowledge in reinforcement learning|journal=Adaptive Behavior|volume=27|issue=2|pages=111–126|arxiv=1811.08318|doi=10.1177/1059712318818568|issn=1059-7123|s2cid=53774629}}</ref>。 == 歴史 == 1976年、Stevo BozinovskiとAnte Fulgosiは、ニューラルネットワークの学習における転移学習に明示的に取り組んだ論文を発表した<ref>Stevo. Bozinovski and Ante Fulgosi (1976). "The influence of pattern similarity and transfer learning upon the training of a base perceptron B2." (original in Croatian) Proceedings of Symposium Informatica 3-121-5, Bled.</ref><ref>Stevo Bozinovski (2020) "Reminder of the first paper on transfer learning in neural networks, 1976". Informatica 44: 291–302.</ref>。この論文では、転移学習の数学的および幾何学的モデルを示している。1981年には、コンピュータ端末の文字を表す画像のデータセットに対して、転移学習を適用してニューラルネットワークを学習させた研究が報告された。ポジティブとネガティブな両方の転移学習が実験的に実証された<ref>S. Bozinovski (1981). "Teaching space: A representation concept for adaptive pattern classification." COINS Technical Report, the University of Massachusetts at Amherst, No 81-28 [available online: UM-CS-1981-028.pdf]</ref>。 1993年、Lorien Prattは、機械学習における転移についての論文を発表し、識別性に基づく転移アルゴリズム<!-- Discriminability-based Transfer, DBT -->を定式化した<ref>{{cite book|url={{google books|plainurl=y|id=6tGHlwEACAAJ|page=204}}|title=NIPS Conference: Advances in Neural Information Processing Systems 5|last=Pratt|first=L. Y.|publisher=Morgan Kaufmann Publishers|year=1993|pp=204–211|chapter=Discriminability-based transfer between neural networks|chapter-url=http://papers.nips.cc/paper/641-discriminability-based-transfer-between-neural-networks.pdf}}</ref>。 [[アンドリュー・ン]]は、NIPS 2016のチュートリアルで<ref>{{Citation|title=NIPS 2016 tutorial: "Nuts and bolts of building AI applications using Deep Learning" by Andrew Ng|url=https://www.youtube.com/watch?v=wjqaz6m42wU|language=en|access-date=2019-12-28}}</ref><ref>{{Cite web |url=https://nips.cc/Conferences/2016/Schedule?showEvent=6203 |title=NIPS 2016 Schedule |website=nips.cc |access-date=2019-12-28}}</ref><ref>[https://media.nips.cc/Conferences/2016/Slides/6203-Slides.pdf Nuts and bolts of building AI applications using Deep Learning, slides]</ref>、転移学習は[[教師あり学習]]の次に機械学習の商業的成功の原動力になると述べ、その重要性を強調した。 == 定義 == 転移学習の定義は、ドメインとタスクの観点から与えられる。ドメイン <math>\mathcal{D}</math> は、[[特徴量|特徴空間]] <math>\mathcal{X}</math> と[[周辺確率分布]] <math>P(X)</math> からなり、ここに <math>X = \{x_1,...,x_n\} \in \mathcal{X}</math> とする。特定のドメイン <math>\mathcal{D} = \{\mathcal{X}, P(X)\}</math> が与えられた場合、タスクは、ラベル空間 <math>\mathcal{Y}</math> と、目標の予測関数<!-- objective predictive function --> <math>f:\mathcal{X} \rightarrow \mathcal{Y} </math> の2つの要素から構成される。この関数 <math>f</math> は、新しいインスタンス <math>x</math> の対応するラベル <math>f(x)</math> を予測するために用いられる。このタスクは、<math>\mathcal{T} = \{\mathcal{Y}, f(x)\}</math> で示され、<math>x_i \in X</math>、<math>y_i \in \mathcal{Y}</math> のペア <math>\{x_i, y_i\}</math> からなる学習データから学習される<ref name="Lin, Jung 2017">{{cite journal|last1=Lin|first1=Yuan-Pin|last2=Jung|first2=Tzyy-Ping|date=27 June 2017|title=Improving EEG-Based Emotion Classification Using Conditional Transfer Learning|journal=Frontiers in Human Neuroscience|volume=11|pages=334|doi=10.3389/fnhum.2017.00334|pmid=28701938|pmc=5486154}} [[ファイル:CC-BY_icon.svg|50x50ピクセル]] Material was copied from this source, which is available under a [[creativecommons:by/4.0/|Creative Commons Attribution 4.0 International License]].</ref>。 ソースドメイン <math>\mathcal{D}_S</math> と学習タスク <math>\mathcal{T}_S</math> 、ターゲットドメイン <math>\mathcal{D}_T</math>と学習タスク <math>\mathcal{T}_T</math> が与えられ、ここで <math>\mathcal{D}_S \neq \mathcal{D}_T</math>、<math>\mathcal{T}_S \neq \mathcal{T}_T</math> の場合、転移学習の目的は、 <math>\mathcal{D}_S</math> と <math>\mathcal{T}_S</math> の知識を用いて、<math>\mathcal{D}_T</math> の対象の予測関数<!-- target predictive function --> <math>f_T (\cdot)</math> の学習を改善することである<ref name="Lin, Jung 2017" />。 == 応用 == {{仮リンク|マルコフ論理ネットワーク|en|Markov logic network}}<ref>{{citation|title=Learning Proceedings of the 22nd AAAI Conference on Artificial Intelligence (AAAI-2007)|last1=Mihalkova|first1=Lilyana|last2=Huynh|first2=Tuyen|last3=Mooney|first3=Raymond J.|date=July 2007|contribution=Mapping and Revising Markov Logic Networks for Transfer|contribution-url=http://www.cs.utexas.edu/users/ml/papers/mihalkova-aaai07.pdf|location=Vancouver, BC|access-date=2007-08-05|pp=608–614}}</ref>や[[ベイジアンネットワーク]]<ref>{{citation|title=Proceedings of the Eleventh International Conference on Artificial Intelligence and Statistics (AISTATS 2007)|last1=Niculescu-Mizil|first1=Alexandru|last2=Caruana|first2=Rich|date=March 21–24, 2007|contribution=Inductive Transfer for Bayesian Network Structure Learning|contribution-url=http://www.stat.umn.edu/~aistat/proceedings/data/papers/043.pdf|access-date=2007-08-05}}</ref>における転移学習のアルゴリズムが利用可能である。また、転移学習は、[[悪性腫瘍|癌(がん)]]の亜類型の発見<ref name=":bmdl">Hajiramezanali, E. & Dadaneh, S. Z. & Karbalayghareh, A. & Zhou, Z. & Qian, X. Bayesian multi-domain learning for cancer subtype discovery from next-generation sequencing count data. 32nd Conference on Neural Information Processing Systems (NeurIPS 2018), Montréal, Canada. {{arXiv|1810.09433}}</ref>、[[占有|建物運用]]<ref>{{Cite conference|last1=Arief-Ang|first1=I.B.|last2=Salim|first2=F.D.|last3=Hamilton|first3=M.|date=2017-11-08|title=DA-HOC: semi-supervised domain adaptation for room occupancy prediction using CO2 sensor data|url=https://dl.acm.org/citation.cfm?id=3137146|conference=4th ACM International Conference on Systems for Energy-Efficient Built Environments (BuildSys)|location=Delft, Netherlands|pages=1–10|doi=10.1145/3137133.3137146|isbn=978-1-4503-5544-5}}</ref><ref>{{cite journal|last1=Arief-Ang|first1=I.B.|last2=Hamilton|first2=M.|last3=Salim|first3=F.D.|date=2018-12-01|title=A Scalable Room Occupancy Prediction with Transferable Time Series Decomposition of CO2 Sensor Data|journal=ACM Transactions on Sensor Networks|volume=14|issue=3–4|pages=21:1–21:28|doi=10.1145/3217214|s2cid=54066723}}</ref>、{{仮リンク|一般的なゲームプレイ|en|General game playing}}、[[文書分類]]<ref>Banerjee, Bikramjit, and Peter Stone. "[http://www.aaai.org/Papers/IJCAI/2007/IJCAI07-107.pdf General Game Learning Using Knowledge Transfer]." IJCAI. 2007.</ref><ref>{{cite conference|last1=Do|first1=Chuong B.|last2=Ng|first2=Andrew Y.|year=2005|title=Neural Information Processing Systems Foundation, NIPS*2005|url=http://papers.nips.cc/paper/2843-transfer-learning-for-text-classification.pdf|access-date=2007-08-05|contribution=Transfer learning for text classification}}</ref><ref>{{cite conference|last1=Rajat|first1=Raina|last2=Ng|first2=Andrew Y.|last3=Koller|first3=Daphne|year=2006|title=Twenty-third International Conference on Machine Learning|url=https://ai.stanford.edu/~ang/papers/icml06-transferinformativepriors.pdf|access-date=2007-08-05|contribution=Constructing Informative Priors using Transfer Learning}}</ref>、[[文字認識]]<ref>{{Cite journal|last1=Maitra|first1=D. S.|last2=Bhattacharya|first2=U.|last3=Parui|first3=S. K.|date=August 2015|title=CNN based common approach to handwritten character recognition of multiple scripts|journal=2015 13th International Conference on Document Analysis and Recognition (ICDAR)|pages=1021–1025|doi=10.1109/ICDAR.2015.7333916|isbn=978-1-4799-1805-8|s2cid=25739012}}</ref>、医療画像、[[スパムフィルタリング]]<ref>{{cite conference|last=Bickel|first=Steffen|year=2006|title=ECML-PKDD Discovery Challenge Workshop|url=http://www.ecmlpkdd2006.org/discovery_challenge2006_overview.pdf|access-date=2007-08-05|contribution=ECML-PKDD Discovery Challenge 2006 Overview}}</ref>にも応用されている。 2020年に、[[脳波|脳波記録]](EEG)波形の動きを[[ジェスチャー認識]]領域から精神状態認識領域へ分類するときに、その物理的性質が似ていることから、筋肉からの[[筋電図検査|電気筋運動記録]](EMG)信号間で転移学習が可能であることが発見された。また、この関係は逆にも作用し、脳波記録が筋運動記録をさらに分類できることも示された<ref>{{cite journal|last1=Bird|first1=Jordan J.|last2=Kobylarz|first2=Jhonatan|last3=Faria|first3=Diego R.|last4=Ekart|first4=Aniko|last5=Ribeiro|first5=Eduardo P.|year=2020|title=Cross-Domain MLP and CNN Transfer Learning for Biological Signal Processing: EEG and EMG|journal=IEEE Access|volume=8|pages=54789–54801|publisher=Institute of Electrical and Electronics Engineers (IEEE)|doi=10.1109/access.2020.2979074|issn=2169-3536|doi-access=free}}</ref>。この実験では、[[人工ニューラルネットワーク|ニューラルネットワーク]]および[[畳み込みニューラルネットワーク]]の精度が、最初のエポック(学習前、つまり標準的なランダムな重み分布との比較)と漸近(学習プロセスの終了)の両方で、転移学習によって向上することが分かった<ref>{{Cite journal|last=Maitra|first=Durjoy Sen|last2=Bhattacharya|first2=Ujjwal|last3=Parui|first3=Swapan K.|date=August 2015|title=CNN based common approach to handwritten character recognition of multiple scripts|url=https://ieeexplore.ieee.org/document/7333916/|journal=2015 13th International Conference on Document Analysis and Recognition (ICDAR)|pages=1021–1025|doi=10.1109/ICDAR.2015.7333916}}</ref>。すなわちアルゴリズムは別のドメインに触れさせることで改善された。さらに、事前学習されたモデルの最終使用者は、完全結合層の構造を変更することで、より優れた性能を得ることができる<ref>[[arxiv:2007.03347|Kabir, H. M., Abdar, M., Jalali, S. M. J., Khosravi, A., Atiya, A. F., Nahavandi, S., & Srinivasan, D. (2020). Spinalnet: Deep neural network with gradual input. arXiv preprint arXiv:2007.03347.]]</ref>。 コードに関する機械学習の領域では<ref>{{Cite journal|last=Allamanis|first=Miltiadis|last2=Barr|first2=Earl T.|last3=Devanbu|first3=Premkumar|last4=Sutton|first4=Charles|date=2019-07-31|title=A Survey of Machine Learning for Big Code and Naturalness|url=https://dl.acm.org/doi/10.1145/3212695|journal=ACM Computing Surveys|volume=51|issue=4|pages=1–37|language=en|doi=10.1145/3212695|issn=0360-0300}}</ref>、転移学習がセキュリティ上の脆弱性を自動的に修復するのに役立つことが示されている<ref>{{Cite journal|last=Chen|first=Zimin|last2=Kommrusch|first2=Steve James|last3=Monperrus|first3=Martin|date=2022|title=Neural Transfer Learning for Repairing Security Vulnerabilities in C Code|url=https://ieeexplore.ieee.org/document/9699412/|journal=IEEE Transactions on Software Engineering|pages=1–1|doi=10.1109/TSE.2022.3147265|issn=1939-3520}}</ref>。 == 参照項目 == * {{仮リンク|組換え (遺伝的アルゴリズム)|en|Crossover (genetic algorithm)}} - 2つの親の遺伝情報を組み合わせて新しい子孫を生成するために用いられる遺伝的演算子 * {{仮リンク|ドメイン適応 (機械学習)|en|Domain adaptation|label=}} - 機械学習や転移学習に関連する学問分野の一つ * {{仮リンク|一般的ゲームプレイ|en|General game playing}} - 1つ以上のゲームをうまくプレイできるように人工知能プログラムを設計すること * {{仮リンク|マルチタスク学習|en|Multi-task learning}} - タスク間の共通性と差異を利用しながら複数の学習タスクを同時に解決する機械学習の一分野 * {{仮リンク|マルチタスク最適化|en|Multitask optimization}} - 複数の自己完結型タスクを同時に解決することに焦点を当てた最適化に関する概念 * {{Ill2|ゼロショット学習|en|Zero-shot learning}} - 機械学習における問題設定の一つ == 脚注 == {{Reflist}} == 推薦文献 == * {{cite book|url={{google books|plainurl=y|id=X_jpBwAAQBAJ}}|title=Learning to Learn|last1=Thrun|first1=Sebastian|last2=Pratt|first2=Lorien|date=6 December 2012|publisher=Springer Science & Business Media|isbn=978-1-4615-5529-2}} [[Category:機械学習]] {{DEFAULTSORT:てんいかくしゆう}}
このページで使用されているテンプレート:
テンプレート:ArXiv
(
ソースを閲覧
)
テンプレート:Citation
(
ソースを閲覧
)
テンプレート:Cite book
(
ソースを閲覧
)
テンプレート:Cite conference
(
ソースを閲覧
)
テンプレート:Cite journal
(
ソースを閲覧
)
テンプレート:Cite web
(
ソースを閲覧
)
テンプレート:Ill2
(
ソースを閲覧
)
テンプレート:Lang-en-short
(
ソースを閲覧
)
テンプレート:Reflist
(
ソースを閲覧
)
テンプレート:仮リンク
(
ソースを閲覧
)
転移学習
に戻る。
ナビゲーション メニュー
個人用ツール
ログイン
名前空間
ページ
議論
日本語
表示
閲覧
ソースを閲覧
履歴表示
その他
検索
案内
メインページ
最近の更新
おまかせ表示
MediaWiki についてのヘルプ
特別ページ
ツール
リンク元
関連ページの更新状況
ページ情報