レイ・ソロモノフのソースを表示
←
レイ・ソロモノフ
ナビゲーションに移動
検索に移動
あなたには「このページの編集」を行う権限がありません。理由は以下の通りです:
この操作は、次のグループに属する利用者のみが実行できます:
登録利用者
。
このページのソースの閲覧やコピーができます。
'''レイ・ソロモノフ'''(''Ray Solomonoff''、1926年7月25日 - 2009年12月7日)<ref>{{Cite web |url= http://agi-conf.org/2010/2009/12/12/ray-solomonoff-1926-2009 |title= Ray Solomonoff, 1926-2009 |publisher=The Third Conference on Artificial General Intelligence |accessdate=2012-09-14}}</ref><ref name=NYTObit>{{Cite news|title=Ray Solomonoff, Pioneer in Artificial Intelligence, Dies at 83|first=John|last=Markoff|date=January 9, 2010|accessdate= 2009-01-11|newspaper=[[ニューヨーク・タイムズ|The New York Times]]|url= https://www.nytimes.com/2010/01/10/science/10solomonoff.html}}</ref>はアメリカの[[人工知能]]学者であり、[[アルゴリズム情報理論]]の創始者の1人<ref>Vitanyi, P. "[http://homepages.cwi.nl/~paulv/obituary.html Obituary: Ray Solomonoff, Founding Father of Algorithmic Information Theory"]</ref>。また、[[アルゴリズム的確率]] を考案し<ref>[http://scholarpedia.org/article/Algorithmic_probability detailed description of Algorithmic Probability in Scholarpedia]</ref>、[[機械学習]]と予測と確率に基づく[[人工知能]]の分野を創始した。1956年、非意味論的機械学習についての論文を発表している<ref name="pdf scanned copy of the original">[http://world.std.com/~rjs/indinf56.pdf (pdf scanned copy of the original)]</ref>。 1960年に algorithmic probability について[[カリフォルニア工科大学]]での会議で発表し<ref>Paper from conference on "Cerebral Systems and Computers", California Institute of Technology, Feb 8-11, 1960, cited in "A Formal Theory of Inductive Inference, Part 1, 1964, p. 1</ref>、同年2月には "A Preliminary Report on a General Theory of Inductive Inference" という論文を発表<ref>Solomonoff, R., "[http://world.std.com/~rjs/rayfeb60.pdf A Preliminary Report on a General Theory of Inductive Inference]", Report V-131, Zator Co., Cambridge, Ma. Feb 4, 1960, [http://world.std.com/~rjs/z138.pdf revision], Nov., 1960.</ref>。1964年には "A Formal Theory of Inductive Inference" の第一部<ref>Solomonoff, R., "[http://world.std.com/~rjs/1964pt1.pdf A Formal Theory of Inductive Inference, Part I]" ''Information and Control'', Vol 7, No. 1 pp 1-22, March 1964.</ref><ref>Solomonoff, R., "[http://world.std.com/~rjs/1964pt2.pdf A Formal Theory of Inductive Inference, Part II]" ''Information and Control'', Vol 7, No. 2 pp 224-254, June 1964.</ref>と第二部を発表し、さらに考え方を明確化した。そこから[[コルモゴロフ複雑性]]と[[アルゴリズム情報理論]]が発展した。 algorithmic probability は、[[オッカムの剃刀]]<ref>Induction: From Kolmogorov and Solomonoff to De Finetti and Back to Kolmogorov JJ McCall - Metroeconomica, 2004 - Wiley Online Library.</ref><ref>Foundations of Occam's razor and parsimony in learning from ricoh.com D Stork - NIPS 2001 Workshop, 2001</ref><ref>Occam's razor as a formal basis for a physical theory from arxiv.org AN Soklakov - Foundations of Physics Letters, 2002 - Springer</ref><ref>Beyond the Turing Test from uclm.es J HERNANDEZ-ORALLO - Journal of Logic, Language, and …, 2000 - dsi.uclm.es</ref>と多説明原理<ref>Ming Li and Paul Vitanyi, ''An Introduction to Kolmogorov Complexity and Its Applications.'' Springer-Verlag, N.Y., 2008p 339 ff.</ref>の組合せを数学的に定式化したものである。それは与えられた観察結果を説明するそれぞれの仮説(アルゴリズム、プログラム)に確率値を割り当てる機械に依存しない手法であり、最も単純な仮説が最も高い確率を割り当てられ、仮説が複雑になるほど割り当てる確率が低くなる。 他にも[[帰納推論]]{{enlink|inductive inference}}の一般理論でも知られているが、確率的手法を用いて難しい問題を機械で解くという人工知能研究の過程で他にも様々な発見をしている。 == ダートマス会議まで == 1926年7月25日、[[オハイオ州]][[クリーブランド (オハイオ州)|クリーブランド]]で[[ロシア人]]移民の子として生まれた。幼いころから好奇心が強く、数学的発見に純粋な喜びを見出す性質だった。16歳のとき(1942年)、数学の問題を解く万能の方法を探索しはじめた。1944年に高校を卒業すると[[アメリカ海軍]]に入隊し、そこでエレクトロニクスの指導員を務めた。1947年に[[シカゴ大学]]に進学し、[[ルドルフ・カルナップ]]や[[エンリコ・フェルミ]]の指導を受け、1951年には物理学の修士号を得て卒業した。 1950年から52年にかけて、3つの論文を書いている(うち2つは[[アナトール・ラパポート]]と共同執筆)<ref>"[http://world.std.com/~rjs/exactneuralnets.pdf An Exact Method for the Computation of the Connectivity of Random Nets]", ''Bulletin of Mathematical Biophysics'', Vol 14, p. 153, 1952.</ref>。これらはネットワークの静的解析に関する最初の論文とされている。 1952年、[[マービン・ミンスキー]]や[[ジョン・マッカーシー]]といった機械知性に興味を持つ人々に出会った。1956年にミンスキーやマッカーシーらが開催した[[ダートマス会議]]にも参加している。1カ月間行われた会議で、最初から最後まで参加したのはミンスキーとソロモノフだけだった。この会議参加者によって初めて[[人工知能]]が学問分野の名称とされた。当時のコンピュータは非常に限定された数学の問題を解くことはできたが、それだけだった。ソロモノフは、機械をより汎用的に知的にするにはどうすればよいか、そしてそのためにコンピュータがどのように確率を扱えばよいかという大きな問題を追求したいと考えていた。会議中に "An Inductive Inference Machine" と題したレポートを書き、参加者に回覧した<ref name="pdf scanned copy of the original"/>。それは[[機械学習]]を確率的なものとし、学習の重要性を強調し、過去の問題の解法の部分を新たな問題の解法構築の試行に利用するという考え方を提示したものである。1957年にはそれまでの結論をまとめて発表した<ref>An Inductive Inference Machine," IRE Convention Record, Section on Information Theory, Part 2, pp. 56-62.[http://world.std.com/~rjs/An%20Inductive%20Inference%20Machine1957.pdf (pdf version)]</ref>。それらは確率的機械学習について書かれた世界初の論文である。 1950年代後半、確率的言語とそれに関連する文法を考案<ref>"[http://world.std.com/~rjs/A%20Progress%20Report%20on%20Machines%20_%20Translate%20_%20Retrieve%20Information.pdf A Progress Report on Machines to Learn to Translate Languages and Retrieve Information]", Advances in Documentation and Library Science, Vol III, pt. 2, pp. 941-953. (Proceedings of a conference in Sept. 1959.)</ref>。確率的言語は、それぞれの可能な文字列に確率値を割り当てる。確率的文法の概念を一般化することで、1960年の Algorithmic Probability の発見へとつながった。 == Algorithmic Probability == 1960年代より以前、確率を計算するには頻度に基づくのが普通だった。試行回数に対して、希望の結果が得られた回数の比率を求めるのである。1960年のソロモノフの論文では、この確率の定義が大きく改訂されており、1964年の論文でさらに完全なものとなっている。 後に[[コルモゴロフ複雑性]]と呼ばれることになる基本定理は、ソロモノフの理論にも含まれていた。1960年の論文の導入部に次のような一節がある。 <blockquote>非常に長い記号列を考えてみよう。…その記号列についての非常に簡単な説明があり、もちろん所定の記述方法を使っているなら、我々はその記号列が「単純」であるとみなすことができ、[[アプリオリ]]な高い確率で予測することができる。より正確に言えば、0と1だけで何かを表現する場合、それが ''N'' 桁の二進数が可能な限り最短の表現であれば、その確率として 2<sup>-''N''</sup> を割り当てることになる。<ref>"A Preliminary Report on a General Theory of Inductive Inference,", 1960 p. 1</ref></blockquote> この確率は、特定の{{仮リンク|万能チューリング機械|en|Universal Turing machine}}への参照と結びついている。ソロモノフは機械の選択を示し、1964年には証明したが、定数因子を加えても確率の比率はあまり変化しないということも示した。それらの確率は機械独立である。 1965年、ロシア人数学者[[アンドレイ・コルモゴロフ|コルモゴロフ]]が独自に同様の考え方を発表した。コルモゴロフは後にソロモノフの業績を知り、ソロモノフの業績を認めた。その後数年間は、西欧よりもソ連でソロモノフの業績がよく知られるようになった。しかし学会全体としては、記号列の無作為性をより強調したコルモゴロフの名が結び付けられる結果となった。ソロモノフの Algorithmic Probability は記号列の外挿による予測に重きを置いていた。 後に1960年の後の時点で、ソロモノフは単一最短符号理論の拡張版を発表している。それが Algorithmic Probability である。彼は「記号列を説明するいくつかの異なる方法があるとき、それぞれの方法が記号列の確率を決定する際に何らかの重みを与えられるべきと思われる」と記している<ref>"A Preliminary Report on a General Theory of Inductive Inference,",1960, p. 17</ref>。そして、この考え方を使って汎用的でアプリオリな確率分布を生成する方法と、[[ベイズの定理]]を帰納推論に使えるようにする方法を示している。帰納推論は、特定の記号列を説明する全モデルの予測を加算することにより、それらのモデルの長さに基づいた適切な重み付けを使うことで、その記号列の拡張の確率分布を得る。この推論方法は後に「ソロモノフ推論」とも呼ばれるようになった。 その後もいくつかの論文を発表しつつ理論を発展させていき、1964年の発表へとつなげた。1964年の論文では Algorithmic Probability とソロモノフ推論についてより詳細に述べており、Universal Distribution と呼ばれるモデルを含む5つのモデルを提示している。 == 確率と人工知能 == 1956年夏の[[ダートマス会議]]に参加した他の科学者ら(例えば、[[アレン・ニューウェル|ニューウェル]]と[[ハーバート・サイモン|サイモン]])は、IF-THEN規則と事実ベースの人工知能の開発を行っていた。ソロモノフは確率と推論に基づく人工知能を開発していた。すなわち、Algorithmic Probability に基づく人工知能である。それは問題解決のための推論を確率つきで生成し、新たな問題と推論が出てきたら、推論群の確率分布を更新する。 1968年、Algorithmic Probability の有効性についての証明を得たが<ref>"Complexity-based Induction Systems, Comparisons and convergence Theorems" ''IEEE Trans. on Information Theory'' Vol. IT-24, No. 4, pp.422-432, July,1978. [http://world.std.com/~rjs/solo1.pdf (pdf version)]</ref>、当時はそのことにあまり興味がなかったため、公表したのは10年後となった。その中で収束定理の証明を発表している。 Algorithmic Probability の発見以降、その確率およびソロモノフ推論を実際の人工知能プログラムでの推論や問題解決に応用することの注力している。また、この確率体系の持つ意味についてもより深く理解しようとしていた。 Algorithmic Probability の重要な様相の1つとして、完全かつ計算不能という点がある。 1968年の論文で Algorithmic Probability が「完全 (complete)」であることを示した。データに何らかの描写可能な規則正しさがあるとき、Algorithmic Probability はその規則性を最終的に発見でき、それには相対的に少数のデータ標本があればよい。その意味で Algorithmic Probability は唯一の既知の完全な確率体系である。その完全性の必然的帰結として、それは「計算不能 (incomputable)」である。計算不能性が生じるのは、[[計算可能関数|部分再帰]]アルゴリズムのサブセットである一部のアルゴリズムがあまりにも評価に時間がかかるため、決して完全には評価できないためである。しかしそれらのプログラムも少なくとも解法として認められるだろう。一方、任意の「計算可能」な体系は「不完全」である。そのような体系では、たとえ無限の時間をかけても認識・考慮されない探索空間が必ず存在する。計算可能な推論モデルは、そのようなアルゴリズムを無視することでその事実を隠蔽する。 ソロモノフは多くの論文で問題の解の探索方法を記述し、1970年代から1980年代初めにかけて、彼が機械を更新する最良の方法と考える方法を開発した。 しかし人工知能における確率の利用には紆余曲折があった。初期の人工知能において、確率の関連付けは問題が多かった。また、人工知能研究者の多くは確率の利用を避けていた。[[パターン認識]]の分野では確率は使われなかったし、確率を組み入れるための幅広く基本的な理論がなかったため、多くの分野で確率は利用されなかった。 しかし、[[ジューディア・パール]]などの研究者らは人工知能での確率の有効性を主張した。 1984年ごろの[[アメリカ人工知能学会]] (AAAI) の年次会合で、確率と人工知能は無関係であるとの決議が採択されている。これに反対するグループが結成され、翌年のAAAIの会合で "Probability and Uncertainty in AI"(AIにおける確率と不確実性)と題したワークショップが開催されている。このワークショップはその後も続けられている<ref>"[http://world.std.com/~rjs/kollect.pdf The Universal Distribution and Machine Learning]", The Kolmogorov Lecture, Feb. 27, 2003, Royal Holloway, Univ. of London. The Computer Journal, Vol 46, No. 6, 2003.</ref>。 その最初のワークショップで、ソロモノフは人工知能における問題に universal distribution を適用する方法を示した論文を発表した<ref>"[http://world.std.com/~rjs/86.pdf The Application of Algorithmic Probability to Problems in Artificial Intelligence]", in Kanal and Lemmer (Eds.), ''Uncertainty in Artificial Intelligence,'', Elsevier Science Publishers B.V., pp 473-491, 1986.</ref>。それはソロモノフが後に発展させることになる体系の初期のバージョンだった。その中で自身が開発した探索技法を説明している。探索問題での最良の探索順序にかかる時間は <math>T_i/P_i</math> で表され、<math>T_i</math> は1回の試行にかかる時間、<math>P_i</math> はその試行が成功する確率である。ソロモノフはこれを問題の "Conceptual Jump Size" と呼んだ。[[:en:Leonid Levin|Levin]]の探索技法はこの順序の近似であり<ref>Levin, L.A., "Universal Search Problems", in Problemy Peredaci Informacii 9, pp. 115-116, 1973</ref>、ソロモノフは Levin の探索技法を研究して Lsearch と呼称した。 == 晩年 == 他にも、資源が限られた探索で解を探索するのにかかる時間を制限する方法を研究している。探索空間は[[最小記述長]]などの推論技法では意図的に制限されるが、探索にかけられる時間や計算コストによっても制限される。 ソロモノフは長年に渡って人工知能の潜在的利益と危険についても考察しており、多くの論文で議論している。1985年、人工知能の発展がいつ「無限大 (Infinity Point)」に達するかを予測する式を作り、人工知能の未来を分析した<ref>"The Time Scale of Artificial Intelligence: Reflections on Social Effects," Human Systems Management, Vol 5, pp. 149-153, 1985 [http://world.std.com/~rjs/timesc.pdf (pdf version)]</ref>。この考え方は後に[[レイ・カーツワイル]]が広めた[[技術的特異点]]のさきがけといえる。 アルゴリズム誘導の方法は本来、順序に従った文字列を外挿するものだった。そのため他の種類のデータを扱う同様の方法が必要とされていた。 1999年の論文で順序に従わない文字列を扱うため Universal Distribution を一般化し収束定理と組み合わせている<ref>"Two Kinds of Probabilistic Induction," The Computer Journal, Vol 42, No. 4, 1999. [http://world.std.com/~rjs/compj99.pdf (pdf version)]</ref>。2008年の論文では順序に従わない2つの文字列を扱っている<ref>"Three Kinds of Probabilistic Induction, Universal Distributions and Convergence Theorems" 2008. [http://world.std.com/~rjs/chris1.pdf (pdf version)]</ref>。 1997年(および2003年と2006年)の論文で、高性能推論システムには計算不能性と主観性が必須であり望ましい性質だとした<ref>"The Discovery of Algorithmi Probability," Journal of Computer and System Sciences, Vol 55, No. 1, pp. 73-88 [http://world.std.com/~rjs/barc97.pdf (pdf version)]</ref>。 ソロモノフは1970年に個人企業 Oxbridge Research を立ち上げ、[[マサチューセッツ工科大学|MIT]]、[[ザールラント大学]]、スイスの人工知能研究所といった研究機関に所属している期間以外は、その会社で活動していた。2003年、[[ロンドン大学]][[ロイヤル・ホロウェイ]]の Computer Learning Research Center (CLRC) から第1回コルモゴロフ賞を受賞。その後はCLRCで客員教授を務めていた。 [[ダートマス会議]]から50周年となった2006年、{{仮リンク|AI@50|en|AI@50}}が開催され、ダートマス会議に参加していたソロモノフも講演を行った。 == 参考文献 == * Ming Li and Paul Vitanyi, ''An Introduction to Kolmogorov Complexity and Its Applications.'' Springer-Verlag, N.Y., 2008 * "The Discovery of Algorithmic Probability", Journal of Computer and System Sciences, Vol 55, No. 1, pp 73–88, August 1997. == 脚注 == {{Reflist|2}} == 外部リンク == * [http://world.std.com/~rjs/ Ray Solomonoff's Homepage] * [http://www.Solomonoff85thMemorial.monash.edu.au Ray Solomonoff (1926-2009) 85th memorial conference, Melbourne, Australia, Nov/Dec 2011] * [http://www.monash.edu.au/news/show/pioneer-of-machine-learning-celebrated-1 Pioneer of machine learning celebrated 14 December 2011] {{Normdaten}} {{DEFAULTSORT:そろものふ れい}} [[Category:アメリカ合衆国の人工知能学者]] [[Category:情報理論]] [[Category:ユダヤ系アメリカ人]] [[Category:ロシア系アメリカ人]] [[Category:1926年生]] [[Category:2009年没]]
このページで使用されているテンプレート:
テンプレート:Cite news
(
ソースを閲覧
)
テンプレート:Cite web
(
ソースを閲覧
)
テンプレート:Enlink
(
ソースを閲覧
)
テンプレート:Normdaten
(
ソースを閲覧
)
テンプレート:Reflist
(
ソースを閲覧
)
テンプレート:仮リンク
(
ソースを閲覧
)
レイ・ソロモノフ
に戻る。
ナビゲーション メニュー
個人用ツール
ログイン
名前空間
ページ
議論
日本語
表示
閲覧
ソースを閲覧
履歴表示
その他
検索
案内
メインページ
最近の更新
おまかせ表示
MediaWiki についてのヘルプ
特別ページ
ツール
リンク元
関連ページの更新状況
ページ情報