言語モデル

提供: testwiki
ナビゲーションに移動 検索に移動

テンプレート:専門的 言語モデル(げんごモデル、テンプレート:Lang-en-short)は、単語列に対する確率分布を表わすものである[1]

解説

言語モデルは、長さがテンプレート:Mvar個の単語列が与えられたとき、その単語列全体に対しての確率 P(w1,,wm) を与える。この確率分布は、1つまたは複数の言語のテキストコーパスを使用して、言語モデルを訓練することによって得られる。しかし、言語は無限に有効な文を表現することができるためテンプレート:Efn、言語モデリングは、訓練データでは遭遇しないような言語的に有効な単語列にゼロでない確率を割り当てることが課題となる。この問題を克服するために、マルコフ仮定や、回帰型ニューラルネットワークあるいはトランスフォーマー(transformer)などのニューラルアーキテクチャなど、さまざまなモデリング方法が考案されている。

言語モデルは、計算言語学におけるさまざまな問題に役立っている。当初は、低確率で無意味な単語列を予測を防ぐために音声認識[2]での使用から始まった。現在では、機械翻訳(翻訳候補の順位付け)[3]や、より人間に近いテキストを生成する自然言語生成テンプレート:Ill2構文解析[3]光学文字認識手書き文字認識[4]テンプレート:Ill2[5]情報検索[6][7]など、幅広い用途に利用されている。

情報検索においては、テンプレート:Ill2において言語モデルが用いられる。この方法では、コレクション内のすべての文書に、個別の言語モデルが関連付けられている。そして各文書は、その文書の言語モデル Md に対するクエリ Q の確率 P(QMd) に基づいて順位付けされる。この目的のため一般に、テンプレート:Ill2言語モデルが利用される。

2018年以降、大規模言語モデル(LLM)が登場し、大きな発展がみられた。これらのモデルは、数十億個の学習可能なパラメータを持つディープ・ニューラルネットワークで構成され、ラベルなしテキストの膨大なデータセットで訓練される。LLMは、さまざまな自然言語処理タスクで目覚ましい成果を示し、研究の焦点が汎用的なLLMの使用へと移り変わっていた[8]

2024年初頭、専門家はすでに、言語モデル開発の焦点は大規模な言語モデルから小規模なモデルへと移行し[9]、2025年におけるMITのブレークスルー技術の第3位は小規模な言語モデルであり、言語モデルは大規模から小規模へと進展している[10]

モデルの種類

n-gramモデル

テンプレート:Main

n-gram言語モデルは、マルコフ過程に基づいて単語列をモデル化するものである。このモデルでは、単語列内の次の単語の確率が、先行する単語の固定サイズのウィンドウにのみ依存すると仮定することで単純化する。たとえば、bigramモデルは先行する1つの単語のみを考慮し、trigramモデルは先行する2つの単語を考慮し、n-gramモデルは先行するn-1単語を文脈として考慮する[11]

たとえば、bigram言語モデルは、「I saw the red house(赤い家が見えた)」という文の確率を次のようにモデル化する。P(I, saw, the, red, house)P(Is)P(sawI)P(thesaw)P(redthe)P(housered)P(/shouse)ここで、s/s は文の開始と終了を示す特別なトークンである。

これらの条件付き確率は、テキストコーパスの一部分の頻度カウントに基づいて推定することができる。たとえば、P(sawI) は、コーパス内での単語「I」に続いて「saw」が出現する割合として単純に推定できる。スパース性の問題(たとえば、コーパス内で「red house」というbigramの出現数がゼロの場合)は、特に大きなコンテキストウィンドウを使用する場合に、テンプレート:Ill2手法によって基本的なマルコフモデルを修正する必要がある[11]

指数関数モデル

最大エントロピー言語モデルでは、単語とn-gramの履歴との関係を符号化する特徴関数を使用する。言語モデルは次の式で表される。P(wmw1,,wm1)=1Z(w1,,wm1)exp(aTf(w1,,wm))ここで、Z(w1,,wm1)分配関数a はパラメータベクトル、f(w1,,wm) は特徴関数である。最も単純な形では、特徴関数は特定のn-gramの存在を示す指標にすぎない。モデルの最適なのために、a の事前分布を利用するか、何らかの形で正則化を行うことが有効である。指数関数型の言語モデルの一つの例として、対数双線形モデルがある。

ニューラルネットワーク

ニューラル言語モデルは、連続空間言語モデル(continuous space language models)とも呼ばれ、単語の連続的な表現または埋め込みを使用して予測を行う[12]。これらのモデルでは、ニューラルネットワークが使用されている。

連続空間の埋め込みは、言語モデリングにおける「次元の呪い」テンプレート:Efnを軽減するために有効な手法である。訓練に用いるテキストの大きさ応じて語彙に含まれる固有の単語数も増える。このため、単語列の可能な組みわせ数が指数関数的に増加することにより、データ疎性の問題が発生する。そのため、確率を適切に推定するためには統計が必要となる。この問題を回避するため、ニューラルネットワークでは単語の表現を分散させる手法をとり、ネットワーク内の重みの非線形な組み合わせとして表現する[13]。また、ニューラルネットは言語関数を近似していると捉えることもできる。この目的に使用できるニューラルネットのアーキテクチャには、順伝播型回帰型の2種類がある。前者は単純であるが、後者の方がより一般的である[要解説]テンプレート:Citation needed

ニューラルネット言語モデルは一般に、語彙 V のすべての単語 t について確率分布P(wtcontext)tVを予測することを目的としたテンプレート:Ill2として構築・訓練される。 すなわち、ネットワークは、与えられた言語的コンテキストに基づいて、語彙の確率分布を予測するように訓練される。これは、バックプロパゲーションを用いた確率的勾配降下法などの標準的なニューラルネットワークの学習アルゴリズムによって行われるテンプレート:R。コンテキストは、先行する単語の固定サイズのウィンドウとすることができ、ネットワークは先行する テンプレート:Mvar 個の単語を表す特徴ベクトルからP(wtwtk,,wt1)を予測するテンプレート:R。もう一つの選択肢として、「過去」と「未来」の単語を特徴として使用し[14]、推定確率をP(wtwtk,,wt1,wt+1,,wt+k).とする、テンプレート:Ill2(bag-of-words model)と呼ばれるモデルもある。文脈中の単語の特徴ベクトルを連続演算で連結すると、このモデルは連続バッグ・オブ・ワード(Continuous bag-of-words、CBOW)アーキテクチャと呼ばれる[15]

第3の選択肢は、テンプレート:仮リンクと呼ばれる言語モデルである[16]。これは先の問題を逆にして、与えられた単語から、文脈を出力するようにニューラルネットワークを訓練させるもので、CBOWよりも訓練に時間がかかるが、わずかに良い性能を得ることができるテンプレート:R。その目標は、訓練用の単語列 w1,w2,w3,,wT が与えられたとき、平均対数確率1Tt=1Tkjk,j0logP(wt+jwt)を最大化することである。ここで訓練文脈の大きさ テンプレート:Mvar は、中央の単語 wt の関数とすることができる。skip-gramモデルとbag-of-wordsモデルは、word2vecプログラムの基礎をなしている[17]。 ニューラルネット言語モデルを使用する際に良く行われるのが、実際の確率を計算するのではなく、ネットワークの「隠れ層」に符号化された分散表現を単語の表現として利用するものである。各単語は「単語埋め込み」と呼ばれる テンプレート:Mvar 次元の実数ベクトルが割り当てられる。ここで テンプレート:Mvar は、出力層より前の層の大きさである。特徴的なのは、skip-gramモデルの表現が、単語間の意味的関係を線型結合としてモデル化し、それによりテンプレート:Ill2の形式を捉えることである。たとえば、このようなモデルでは、単語 テンプレート:Mvar をその テンプレート:Mvar 次元ベクトル表現に対応付ける関数 テンプレート:Mvar があるとき、v(king)v(male)+v(female)v(queen)という式が成立し、ここで ≈ は正確には右辺が左辺の値の最近傍として定義されるテンプレート:Rテンプレート:R

その他

位置言語モデル(positional language model)は[18]、テキスト内で特定の単語が、すぐに隣接していなくても、近くに出現する確率を評価するものである。同様に、bag-of-conceptsモデルは[19]、「今日、私はとても素敵なクリスマスプレゼントをたくさん買った」のような情報量の多い文章でも、buy_christmas_present のような複数単語表現に関連付けて、そのセマンティクス(意味)を利用するものである。

手話のモデリングにおいては、ニューラルネットワークで一定の成功をあげているが[20]、他の技術が必要であることを研究者は認識している。

Generative Spoken Language Model (GSLM) は音声を入力とした言語モデルである[21][22][23][24]。文字列を入力として一切利用しない。音声は言語情報以外にパラ言語情報・非言語情報を含んでいるため、音声を入力とするGSLMが獲得する表現にはこれらの情報もコードされていると期待される[25]

評価とベンチマーク

言語モデルの品質は、通常、典型的な言語指向タスクを反映した、人間が作成したサンプルベンチマークとの比較によって評価される。あまり確立されていないが、言語モデルに固有の特性を調べたり、2つのモデルを比較する品質テストの方法もある。言語モデルは通常は動的であり、訓練で遭遇したデータから学習することを目的としているため、提案されたモデルの中には、学習曲線を調べることによって、学習速度を評価するものもある[26]

言語処理システムを評価するために、いくつかのデータセットが開発されており、次のようなものがある[14]

  • 言語学的許容性コーパス(Corpus of Linguistic Acceptability、CoLA)[27]
  • GLUEベンチマーク(GLUE benchmark)[28]
  • マイクロソフトリサーチ・パラフレーズコーパス(Microsoft Research Paraphrase Corpus、MRPC)[29]
  • 多ジャンル自然言語推論(Multi-Genre Natural Language Inference、MultiNLI)
  • 質問自然言語推論(Question Natural Language Inference、QNLI)
  • Quora質問ペア(Quora Question Pairs、QQP)[30]
  • テキスト含意認識(Recognizing Textual Entailment、RTE)[31]
  • テキスト意味的類似度ベンチマーク(Semantic Textual Similarity Benchmark、STS)
  • スタンフォード質問応答データセット(Stanford Question Answering Dataset、SQuAD)[32]
  • スタンフォードセンチメントツリーバンク(Stanford Sentiment Treebank、SST[33]
  • Winograd NLI(WNLI)
  • BoolQ, PIQA, SIQA, HellaSwag, WinoGrande, ARC, OpenBookQA, NaturalQuestions, TriviaQA, RACE, MMLU (Measuring Massive Multitask Language Understanding), BIG-bench hard, GSM8k, RealToxicityPrompts, WinoGender, CrowS-Pairs.[34] (LLaMa Benchmark)

批評

GPT(Generative pre-trained transformer)のような現代の言語モデルは、特定のタスクにおいて人間に匹敵する能力を発揮するが、認知モデルとしての妥当性は不確かになっている。たとえば、回帰型ニューラルネットワークの場合、人間が学習しないパターンを学習したり、人間が学習するパターンを学習できずに失敗することが知られている[35]

参考項目

テンプレート:Div col

テンプレート:Div col end


備考

テンプレート:Notelist

脚注

テンプレート:Reflist

推薦文献

テンプレート:Refbegin

テンプレート:Refend

テンプレート:Natural language processing

  1. テンプレート:Cite book
  2. Kuhn, Roland, and Renato De Mori (1990). "A cache-based natural language model for speech recognition". IEEE transactions on pattern analysis and machine intelligence 12.6: 570–583.
  3. 3.0 3.1 Andreas, Jacob, Andreas Vlachos, and Stephen Clark (2013). "Semantic parsing as machine translation". Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers).
  4. Pham, Vu, et al (2014). "Dropout improves recurrent neural networks for handwriting recognition". 14th International Conference on Frontiers in Handwriting Recognition. IEEE.
  5. Htut, Phu Mon, Kyunghyun Cho, and Samuel R. Bowman (2018). "Grammar induction with neural language models: An unusual replication". テンプレート:ArXiv.
  6. テンプレート:Cite conference
  7. テンプレート:Cite conference
  8. 引用エラー: 無効な <ref> タグです。「Manning-2022」という名前の注釈に対するテキストが指定されていません
  9. テンプレート:Cite web
  10. テンプレート:Cite web
  11. 11.0 11.1 引用エラー: 無効な <ref> タグです。「jm」という名前の注釈に対するテキストが指定されていません
  12. テンプレート:Cite web
  13. テンプレート:Cite encyclopedia
  14. 14.0 14.1 テンプレート:Cite arXiv
  15. テンプレート:Cite arXiv
  16. テンプレート:Cite conference
  17. テンプレート:Cite web
  18. テンプレート:Cite conference
  19. テンプレート:Cite book
  20. テンプレート:Cite journal
  21. Facebook AI. (2021). Textless NLP: Generating expressive speech from raw audio.
  22. Lakhotia, et al. (2021). Generative Spoken Language Modeling from Raw Audio.
  23. Polyak, et al. (2021). Speech Resynthesis from Discrete Disentangled Self-Supervised Representations.
  24. Kharitonov, et al. (2021). Text-Free Prosody-Aware Generative Spoken Language Modeling.
  25. "by having access to the full expressivity of oral language, models should incorporate nuances and intonations" Facebook AI. (2021). Textless NLP: Generating expressive speech from raw audio.
  26. テンプレート:Citation
  27. テンプレート:Cite web
  28. テンプレート:Cite web
  29. テンプレート:Cite web
  30. テンプレート:Citation
  31. テンプレート:Cite web
  32. テンプレート:Cite web
  33. テンプレート:Cite web
  34. テンプレート:Citation
  35. テンプレート:Cite book