predicate.jp - Yusuke Oda

ユニグラム言語モデル

最も単純な言語モデル

自然言語処理では、解析対象の文書を何らかの形で確率モデル上の現象として扱う。 そのようなモデルのうち、文書に対してそれが生成される確率を与えるモデルを 言語モデル と呼び、他の様々なモデルの基礎となっている。

ユニグラム (unigram) 言語モデル は言語モデルの一つであり、 全ての単語が独立に出現するという強い仮定の下で導出される、最も単純なモデルである。

今、NN 個の単語の列 S:=w1w2wNS := w_1 w_2 \cdots w_N が得られているとしよう。 これは 1 文でもよいし、1 文書でもよいし、クローリングで得られた全ての文書を結合したものと考えてもよい。 ii 番目の単語 wiw_i語彙 (vocabulary) V\mathcal{V} に含まれる記号である。 例えば英語であれば、 S:="this is a pen ."S := \textrm{"this is a pen ."} w1="this"w_1 = \textrm{"this"} V:={"the","of",".",}\mathcal{V} := \left\{ \textrm{"the"}, \textrm{"of"}, \textrm{"."}, \cdots \right\} などと表すことができる。

ここで、V\mathcal{V} から NN 個の単語を復元抽出した結果 SS が得られたと考えよう。 このとき、V\mathcal{V} の各単語はどのような確率で出現すると言えるだろうか。

SS は求めたい確率分布に関して我々が持っている唯一の証拠なので、 あらゆる確率分布の中から SS に対する値が最大になるものを選ぶことにしよう。 SS は復元抽出で得られたので、単語 ww の確率を PwP_w と書くことにすると、

Pr(S;Θ):=i=1NPwi\begin{equation} \mathrm{Pr}(S; \Theta) := \prod_{i=1}^N P_{w_i} \end{equation}

と書けることが分かる。 ここで Θ\Theta は全ての PwP_w の集合であり、確率分布の挙動に影響を与える パラメータ (parameter) である。 SS は同じ単語を複数回含む可能性があるので、wwSS に出現する回数を NwN_w と書くことにすると、これは更に

Pr(S;Θ):=wVPwNw\begin{equation} \mathrm{Pr}(S; \Theta) := \prod_{w \in \mathcal{V}} P_w^{N_w} \end{equation}

と纏めることができる。 この Pr(S;Θ)\mathrm{Pr}(S; \Theta) が最大になる Θ\Theta を求めればよいことが分かる。 このような方針のことを一般に 最尤推定 (maximum likelihood estimation) と呼び、 その対象となる確率分布関数(ここでは Pr(S;Θ)\mathrm{Pr}(S; \Theta))を 尤度関数 (likelihood function) と呼ぶ。

上記の確率そのままでは累乗が厄介なので、対数を取って式を簡単な形に変形してしまおう。

logPr(S;Θ)=wVNwlogPw\begin{equation} \log \mathrm{Pr}(S; \Theta) = \sum_{w \in \mathcal{V}} N_w \log P_w \end{equation}

対数は狭義単調増加関数なので、対数を取る前後で式の値が最大になる Θ\Theta は変化しない。 このため、式 (2)(2) の最大化と式 (3)(3) の最大化は同じ問題を解いていることになる。 ところで PwP_w は確率なので、その総和が 1 になるという確率の公理を満たさなければならない。 結局、解くべき問題は次の形となる。

maximize wVNwlogPw\begin{equation} \mathrm{maximize} \ \sum_{w \in \mathcal{V}} N_w \log P_w \end{equation}
s.t. wVPw=1\begin{equation} \mathrm{s.t.} \ \sum_{w \in \mathcal{V}} P_w = 1 \end{equation}

これは未定乗数法で解くことができ、次の解が得られる。

Pw=NwwVNw\begin{equation} P_w = \frac{N_w}{\sum_{w' \in \mathcal{V}} N_{w'}} \end{equation}

つまり、SS 中の ww の出現頻度そのものが確率の推定値となる。 最初に復元抽出を仮定したので、各単語の確率は周辺の他の単語に依存しない形で定式化された。 このようなモデルをユニグラム言語モデル、または 1 グラム (1-gram) 言語モデル と呼ぶ。 一般に周辺 nn 単語に依存する言語モデルを n グラム (n-gram) 言語モデル と呼ぶが、 ユニグラム言語モデルはその特殊形の一つである。

ユニグラム言語モデルは非常に強い独立性の仮定を置いているため、 言語モデルとして利用しようとすると性能面で問題が多い。 一方で統計モデルとしての解析は非常に容易であり、様々な派生モデルの基礎として利用されている。 あるモデルが単語の頻度を利用しているなら、 何らかの形でユニグラムモデルの特徴を借用していると考えてもよいだろう。

ユニグラム言語モデルの学習

実際にユニグラムモデルを学習データから獲得する場合、SS そのものから毎回確率を求めるのではなく、 単語ごとの確率 PwP_w もしくは単語の出現回数 NwN_w だけを記録しておけば十分であることが分かる。 このような、元のデータに代わって確率分布を十分に説明する統計量のことを 十分統計量 (sufficient statistics) と呼ぶ。

与えられた単語のリストからユニグラムモデルを学習するコードを次に示す。 このコードではモデル本体を str から float への辞書で表現しており、 辞書のキーに ww、値に logNw\log N_w を保存している。 統計モデルの計算では確率の乗算が頻出するが、 元の確率値や統計量のまま扱うよりも、これらの対数値を保存しておく方がしばしば便利である。

from collections import Counter
from dataclasses import dataclass
import math

@dataclass(frozen=True)
class UnigramModel:
  # Unigram language model.

  total: float  # log(Total number of words)
  unigram: dict[str, float]  # log(Unigram occurrence)

  @staticmethod
  def train(corpus: list[str]) -> "UnigramModel":
    # Trains a unigram language model.
    total = math.log(len(corpus))
    unigram = {k: math.log(v) for k, v in Counter(corpus).items()}
    return UnigramModel(total=total, unigram=unigram)

  def logprob(self, word: str) -> float:
    # Calculates log(P(w)).
    return self.unigram.get(word, float("-inf")) - self.total