1.2 確率論の基本と対話生成|LLMの次単語予測を学ぶ

1.2 確率論の基本と対話生成

大規模言語モデル(LLM)は、文章を「予測の連続」として処理しています。たとえば「今日は天気が」と入力すると、モデルは「いい」「悪い」「晴れ」など、次に続く候補を確率的に予測します。この章では、その背後にある確率論の基本を、対話生成の流れに沿って直感的に解説します。

なぜ確率なのか?

言葉は曖昧で多様。
「今日は天気が」→「いい」「悪い」「変だ」「気になる」…
どれも自然だけれど“正解”は一つではありません。LLMは「もっともらしさ」に応じて確率を割り当て、柔軟な応答を生み出しています。

単語はどう選ばれる?

文脈(すでに入力された単語列)を条件に、次の単語の確率を計算します。数式で表すと:

P(next word | context)

例:

  • P("晴れ" | "今日は天気が") = 0.62
  • P("悪い" | "今日は天気が") = 0.18
  • P("謎だ" | "今日は天気が") = 0.01

これらから「最も確からしい単語」か、ランダム性を加えた選択(Top-k sampling, Temperature制御)で応答が決まります。

自己回帰的生成(ステップ例)

  1. ユーザー:「今日は天気が」
  2. モデル予測:["いい":0.55, "悪い":0.25, "変":0.10, …]
  3. 選択:「いい」 → 「今日は天気がいい」
  4. この予測→選択を繰り返し、一文・一段落を生成

モデルの“迷い”を捉える

確率が偏るほど確信が高く、均等に近いほど“迷い”が大きい状態。次章の情報理論(エントロピー)で、ばらつきの度合いを定量的に測ります。

要点まとめ

  • LLMは「次の単語」を条件付き確率で予測する
  • 言葉の曖昧さには「確率での割当て」が有効
  • 自己回帰的生成で一単語ずつ文章を構築
  • 確率分布の偏りでモデルの確信度を把握
  • Top-k sampling, Temperature制御で多様な応答を実現
このページのコンテンツは下記の本から抜粋

LLM入門:数学で理解する、大規模言語モデルの仕組み: 機械が言葉を理解する数学的な理由 (LLMマスターシリーズ)

機械が言葉を理解するのは、なぜか?――その“数学的な理由”を、やさしく、でも本質的に解き明かす一冊。ChatGPTをはじめとするLLM(大規模言語モデル)が、いかにして自然言語を理解し、生成しているのか?本書はその仕組みを、数式と直感をバランスよく交えて、深く、わかりやすく解説します。

1,815円 (税込み)

次のセクション:2. LLMの基礎概念

公開日: 2024-10-04
最終更新日: 2025-05-26
バージョン: 16

下田 昌平

開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。

チーム

任 弘毅

株式会社レシートローラーにて開発とサポートを担当。POSレジやShopifyアプリ開発の経験を活かし、業務のデジタル化を促進。

下田 昌平

開発と設計を担当。1994年からプログラミングを始め、今もなお最新技術への探究心を持ち続けています。