「パターン認識と機械学習」(PRML)読書会 #15 の 12.2.1「最尤法による主成分分析(確率的主成分解析)」と 12.2.2 「EMアルゴリズムによる主成分分析」の必要最小限の補足資料です。資料本体は超手抜き仕様の予定。
確率的主成分解析(PPCA)の嬉しいところ
- 多変量ガウス分布の自由パラメータの数を制限(節約)できる
- EMアルゴリズムを適用できる
- D が大きいと計算量で有利になる場合も
- 欠損値を扱える
- ベイズで ARD(関連度自動決定)。主成分部分空間の次元を適切に決めてくれる
- 尤度関数で他モデルと比較できる
- 分類問題にも
- 生成モデルにも
- ★「因子分析と密接な関係を」なんて うかつに言うと宗教論争に巻き込まれる?
いいことだらけ!
PPCA モデル
where N:データ点の数、D:データ空間の次元、M:主部分空間の次元
- 周辺化
where
Tipping and Bishop(1999b). "Probabilistic principal component analysis"
概略
EM アルゴリズムおさらい
- X:観測変数、Z:隠れ変数、θ:パラメータ
- ln p(X) を求めるのは難しいが、ln p(X,Z)は容易
- E-step: p(Z|X, θ^old) を求める
- M-step の更新式に現れる十分統計量の計算に落とし込む
- M-step: 対数尤度の期待値 Q(θ,θ^old)=Σ p(Z|X, θ^old)ln p(X,Z) を最大化するθを求める
- パラメータごとの更新式を導出する
欠損データ
- ランダム欠損を扱うことが出来る
- ★「ランダム欠損」ってあまり発生しなさそう。
- 欠損値を隠れ変数と見なして EM アルゴリズムを適用する
- x_ni (n 番目のデータ点の i 番目のフィールド) が欠損している場合、この x_ni を Z と一緒に潜在変数とする
- を展開して、M-step に必要な十分統計量を見いだす
- を E-step の計算に追加すればいい(はず)
- ★めんどくさくて実装してない……