どこでも見れるメモ帳

ちょっとした備忘録を無秩序に投稿します.気軽にコメントください^^

LDAの各変数の意味と幾何的解釈について

はじめに

LDAの仕組みについて,時間をあけるとすぐに記憶が飛んでしまうためメモ.
ここでは以下についてまとめます*1

  • LDAのグラフィカルモデルにおける各変数の意味とは?
  • LDAは幾何的に何をやってるのか?

LDAのグラフィカルモデル

まず,各文書についてBag of Words(BoW)表現に変換する*2
そして,次の仮定をおく.

  • 文書は複数のトピック*3から構成され,その構成比を離散分布としてもつ
  • トピックは語彙の出現確率分布で表現される
  • 単語ごとに潜在トピックが存在する*4

これをグラフィカルモデルに落としこむと下図になる*5

Smoothed LDAのグラフィカルモデル

すると,グラフィカルモデルにおける各変数の意味は次のようになる.*6

  • M:文書数
  • K:文書集合全体におけるトピック数
  • V:文書集合全体における語彙数*7
  • n_d:文書dにおける単語数*8
  • w_{d,i}\in\left\{1,..,V\right\}:文書dにおけるi番目の単語の語彙インデックス*9
  • z_{d,i} \in \left\{1,..,K\right\}:文書dにおけるi番目の単語の潜在トピック
  • \vec{\theta_d} = \left( \theta_{d,1},..,\theta_{d,K} \right):文書dにおけるトピックの出現確率ベクトル.\sum_{k=1}^{K}\theta_{d,k}=1
  • \vec{\alpha} = \left( \alpha_1,..,\alpha_K \right):トピックの出現頻度の偏りを表すパラメータ*10
  • \vec{\phi_k} = \left( \phi_{k,1},..,\phi_{k,V} \right):トピックkにおける語彙の出現確率ベクトル.\sum_{v=1}^{V}\phi_{k,v}=1
  • \vec{\beta} = \left( \beta_1,..,\beta_V \right):語彙の出現頻度の偏りを表すパラメータ*11

LDAの生成過程

  • \vec{\theta_d} \sim {\rm Dir}(\vec{\alpha})\ \ \ \ \ \ \ (d=1,..,M)
  • \vec{\phi_k} \sim {\rm Dir}(\vec{\beta})\ \ \ \ \ \ \ (k=1,..,K)
  • z_{d,i} \sim {\rm Multi}(\vec{\theta_{d}})\ \ \ \ \ \ \ (i=1,..,n_d)
  • w_{d,i} \sim {\rm Multi}(\vec{\theta_{z_{d,i}}})\ \ \ \ \ \ \ (i=1,..,n_d)

ただし,{\rm Dir}はディリクレ分布,{\rm Multi}は多項分布を表す.*12
また,\vec{\alpha}\vec{\beta}はパラメータとして与える.

補足:パラメータ\vec{\alpha}\vec{\beta}の意味

多項分布による生成過程x_i \sim {\rm Multi}(x_i|\vec{\pi}),(i=1,..,n)を考えて,
\vec{\pi}の事前分布としてディリクレ分布p(\vec{\pi}|\vec{\alpha})={\rm Dir}(\vec{\pi}|\vec{\alpha}),ただし\vec{\alpha}=(\alpha_1,..,\alpha_K)を考える.

すると,\vec{\pi}の事後分布は,p(\vec{\pi}|\vec{x},\vec{\alpha})={\rm Dir}(\vec{\pi}|\vec{\alpha}+\vec{n})となる.
ただし,\vec{n}=(n_1,..,n_K),n_kn回試行の中でkが出現した回数.
すなわち,事前分布における\vec{\alpha}は,事後分布では\vec{n}に加算される.
したがって,\vec{\alpha}はデータを観測する前のkごとの仮想的頻度を表す.

よって,LDAにおける\vec{\alpha}\vec{\beta}についていえば,次のようになる.

  • \vec{\alpha}は,トピックの出現頻度の偏りを表すパラメータ
  • \vec{\beta}は,語彙の出現頻度の偏りを表すパラメータ

LDAの幾何的解釈

LDAの幾何的解釈 簡単のため,全文書集合における語彙数Vが3の場合を考える*13
このとき,各文書をBoW表現にすることで,上図の語彙座標単体*14に射影できる.

各文書は語彙座標単体空間に偏りをもって分布していると想定*15され,より低次元に射影できるはずである.
この低次元空間(単体)を潜在トピック座標単体と呼び,その基底ベクトルがトピックとなり,トピックは語彙の出現確率分布で表現される.そして,各文書のトピック分布は,潜在トピック座標単体上の点となる.

つまり,LDAのは,文書集合の潜在トピック座標単体上への射影とみることができ,
潜在トピック座標単体は,単語座標単体よりも低次元であるため次元圧縮と見ることができる.

参考文献

トピックモデルによる統計的潜在意味解析 (自然言語処理シリーズ)

トピックモデルによる統計的潜在意味解析 (自然言語処理シリーズ)

*1:ほとんどの内容を本ページ末尾の参考文献から引っ張ってきています

*2:文書を形態素解析し,形態素ヒストグラムに変換する.例えば,文書が「もももすももももものうち」であれば,分かち書き「もも/も/すもも/も/もも/の/うち」に対して,形態素ごとにカウントした「もも:2 も:2 すもも:1 の:1 うち:1」がBoW表現である.

*3:話題.音楽,スポーツ,政治…など

*4:出現箇所が異なればその単語のトピックは異なる.例えば,「アップルが新製品を発表しました」と「バナナ,アップル,キウイのミックスジュースがうまい」の「アップル」のトピックは異なる.前者は「企業」トピックとしてのアップルであり,後者は「フルーツ」トピックとしてのアップルである.

*5:これは正確にはSmoothed LDAのグラフィカルモデル.無印LDAの場合はβが存在しない.多くの場合,LDAといえばSmoothed LDAを指すみたい.

*6:ベクトル表記に関して,上図では太字で記し,下では矢印で表記する.…はてなtex記法で太字を表現できなかった…

*7:ここでは「語彙」はユニークな形態素として呼び,一方「単語」はユニークでない形態素として呼ぶ.例えば,「もももすももももものうち」の語彙数は「もも」「も」「すもも」「の」「うち」の5つとするのに対して,単語数は「もも」「も」「すもも」「も」「もも」「の」「うち」の7つとする.

*8:語彙数とは異なるので注意

*9:語彙インデックスは語彙へのマッピング情報を持つ.例えば,語彙インデックス「3」は語彙「すもも」を表すなど

*10:要素値\alpha_kは大きくなるに連れて,文書集合全体においてトピックkが出現しやすくなる

*11:要素値\beta_vは大きくなるに連れて,文書集合全体において語彙インデックスvの語彙が出現しやすくなる

*12:各分布の意味はこちらのスライドがわかりやすいです → 3分でわかる多項分布とディリクレ分布 - http://www.slideshare.net/stjunya/ss-29629644/4

*13:すべての文書において,登場する語彙がgame,play,musicの3つしか存在しない状況

*14:各語彙の出現確率の総和が1となるような空間

*15:単語には共起性があるから