🚧 This website is under construction. 🚧
TILKaggle次元削減・教師なし学習による特徴量

3.11 次元削減・教師なし学習による特徴量

手法名目的備考
主成分分析 (PCA)次元削減変数間の従属性が高ければ、より少数の主成分で元データを表現できる
非負値行列因子分解 (NMF)次元削減非負データにしか使えないが、非負ベクトルの和の形で表現できる
Latent Dirichlet Allocation(LDA)次元削減自然言語処理において、単語文書のカウント行列に対して、各文書のトピック分類を行う手法
線形判別分析 (LDA)次元削減分類タスクにおいて教師ありでで時限削減を行う手法
t-SNE次元削減/可視化元の特徴量空間上にて、近い点が圧縮後の平面でも近くなるように圧縮できる。非線形な関係を捉えることもできるため、元の特徴量にこれらの圧縮結果を加えて精度が上がることがある。
UMAP次元削減t-SNE に比べ数分の 1 程度高速、高次元への圧縮も可能
オートエンコーダ次元削減ニューラルネットを用いる
K-Meansクラスタリング
DBSCANクラスタリング
Agglomerative Clusteringクラスタリング

なぜ次元削減が必要か?

  • 学習コストの低下
  • 可視化性能の向上

3.11.1 主成分分析 (PCA)

[Questions]

  • 共分散行列の固有値問題を解くことがなぜ分散の最大化につながるのか?

[Keywords]

  • 固有値問題
  • ラグランジュの未定乗数法

多次元データのもつ情報をできるだけ損なわずに低次元空間に情報を縮約する手法。

mm 個の特徴量のデータが nn 点存在するとし、行列 X\boldsymbol{X} と各データ点に対応するベクトル xi=(xi1,xi2,,xim) (i=1,2,n)\boldsymbol{x}_i=(x_{i1}, x_{i2}, \ldots{}, x_{im}) \space{} (i=1,2,\ldots{n}) を用いて与えられるとする。

X=(x11x12x1mx21x22x2mxn1xn2xnm)=(x1x2xn)\boldsymbol{X} = \begin{pmatrix} x_{11} & x_{12} & \dots{} & x_{1m} \\ x_{21} & x_{22} & \dots{} & x_{2m} \\ \vdots{} & \vdots{} & \ddots{} & \vdots{} \\ x_{n1} & x_{n2} & \dots{} & x_{nm} \\ \end{pmatrix} = \begin{pmatrix} \boldsymbol{x}_1 \\ \boldsymbol{x}_2 \\ \vdots{} \\ \boldsymbol{x}_n \\ \end{pmatrix}

mm 個の正規直交基底 v1,v2,,vmRm\boldsymbol{v}_1,\boldsymbol{v}_2,\ldots{},\boldsymbol{v}_m \in \R^m を用いて元データを近似することを考えたい。

  • 正規直交基底 - 正規直交系である基底
    • 正規直交系 - Rn\R^n のベクトル v1,,vm\boldsymbol{v}_1,\ldots{},\boldsymbol{v}_m が各々が長さ1で互いに直交する、つまり vivj=δij\boldsymbol{v}_i\cdot{}\boldsymbol{v}_j=\delta_{ij} が成り立つとき、正規直交系と呼ぶ
    • 基底 - 座標系を作り出す 1 次独立なベクトルの集まり

具体的には、

X=(x1x2xn)=(t11v1+t12v2++t1mvmt21v1+t22v2++t2mvmtn1v1+tn2v2++tnmvm)(t11v1+t12v2++t1kvkt21v1+t22v2++t2kvktn1v1+tn2v2++tnkvk)\boldsymbol{X} = \begin{pmatrix} \boldsymbol{x}_1 \\ \boldsymbol{x}_2 \\ \vdots{} \\ \boldsymbol{x}_n \\ \end{pmatrix} = \begin{pmatrix} t_{11}\boldsymbol{v}_1 + t_{12}\boldsymbol{v}_2 + \cdots{} + t_{1m}\boldsymbol{v}_m \\ t_{21}\boldsymbol{v}_1 + t_{22}\boldsymbol{v}_2 + \cdots{} + t_{2m}\boldsymbol{v}_m \\ \vdots{} \\ t_{n1}\boldsymbol{v}_1 + t_{n2}\boldsymbol{v}_2 + \cdots{} + t_{nm}\boldsymbol{v}_m \\ \end{pmatrix} \approx{} \begin{pmatrix} t_{11}\boldsymbol{v}_1 + t_{12}\boldsymbol{v}_2 + \cdots{} + t_{1k}\boldsymbol{v}_k \\ t_{21}\boldsymbol{v}_1 + t_{22}\boldsymbol{v}_2 + \cdots{} + t_{2k}\boldsymbol{v}_k \\ \vdots{} \\ t_{n1}\boldsymbol{v}_1 + t_{n2}\boldsymbol{v}_2 + \cdots{} + t_{nk}\boldsymbol{v}_k \\ \end{pmatrix}

のように、mm 個の正規直交基底のうち、k (<m)k \space{} (\lt{} m) 個の正規直交基底を利用して各データ点を近似する。このとき、vj\boldsymbol{v}_j を第 jj 主成分軸tijt_{ij} をデータ点 xi\boldsymbol{x}_i の第 jj 主成分軸における主成分得点と呼ぶ。(tijt_{ij} は主成分軸の基底 vjv_j が決まれば求められることに注意)

pca

主成分軸の算出

結論から述べると、特徴量の共分散行列 S\boldsymbol{S} に対する固有値問題を解くことで主成分軸は求められる。

ここで、共分散行列 S\boldsymbol{S} は、

S=1n(i=1nxi12i=1nxi1xi2i=1nxi1ximi=1nxi2xi1i=1nxi22i=1nxi2ximi=1nximxi1i=1nximxi2i=1nxim2)=1n(x11x21xm1x12x22xm2x1nx2nxmn)(x11x12x1mx21x22x2mxn1xn2xnm)=1nXTX\begin{aligned} \boldsymbol{S} &= \frac{1}{n} \begin{pmatrix} \sum_{i=1}^{n} x_{i1}^2 & \sum_{i=1}^{n} x_{i1}x_{i2} & \cdots{} & \sum_{i=1}^{n} x_{i1}x_{im}\\ \sum_{i=1}^{n} x_{i2}x_{i1} & \sum_{i=1}^{n} x_{i2}^2 & \cdots{} & \sum_{i=1}^{n} x_{i2}x_{im}\\ \vdots{} & \vdots{} & \ddots{} & \vdots{} \\ \sum_{i=1}^{n} x_{im}x_{i1} & \sum_{i=1}^{n} x_{im}x_{i2} & \cdots{} & \sum_{i=1}^{n} x_{im}^2\\ \end{pmatrix} \\ &= \frac{1}{n} \begin{pmatrix} x_{11} & x_{21} & \dots{} & x_{m1} \\ x_{12} & x_{22} & \dots{} & x_{m2} \\ \vdots{} & \vdots{} & \ddots{} & \vdots{} \\ x_{1n} & x_{2n} & \dots{} & x_{mn} \\ \end{pmatrix} \begin{pmatrix} x_{11} & x_{12} & \dots{} & x_{1m} \\ x_{21} & x_{22} & \dots{} & x_{2m} \\ \vdots{} & \vdots{} & \ddots{} & \vdots{} \\ x_{n1} & x_{n2} & \dots{} & x_{nm} \\ \end{pmatrix} \\ &= \frac{1}{n} \boldsymbol{X}^T\boldsymbol{X} \end{aligned}

とかける。

  • 共分散行列 (分散共分散行列) - S\boldsymbol{S}(i,j) (ij)(i,j) \space(i\neq{}j) 成分は特徴量 ii と特徴量 jj の共分散を、(i,i)(i,i) 成分は特徴量 ii の分散を意味する

各データ点を第 jj 主成分軸に射影した点 t1j,,tnjt_{1j}, \ldots{}, t_{nj} の分散を最大化することを考えたい。

xi\boldsymbol{x}_ivj\boldsymbol{v}_j の内積がデータ点 xi\boldsymbol{x}_i の主成分軸 vj\boldsymbol{v}_j への射影になる、つまり xivj=tij\boldsymbol{x}_i\cdot{}\boldsymbol{v}_j = t_{ij} であることを踏まえれば、射影した点 t1j,,tnjt_{1j}, \ldots{}, t_{nj} の分散は次式のように計算できる。

1ni=1ntij2=1ni=1n(xivj)2=1n(x1vjx2vjxnvj)(x1vjx2vjxnvj)T=1n((x1x2xn)vj)T((x1x2xn)vj)=1n(Xvj)T(Xvj)=1nvjTXTXvj=vjTSvj\begin{aligned} \frac{1}{n}{\sum_{i=1}^{n}{t_{ij}^2}} &= \frac{1}{n}{\sum_{i=1}^{n}{(\boldsymbol{x}_i\cdot{}\boldsymbol{v}_j)^2}} \\ &= \frac{1}{n} \begin{pmatrix} \boldsymbol{x}_1 \cdot{} \boldsymbol{v}_j & \boldsymbol{x}_2 \cdot{} \boldsymbol{v}_j & \cdots{} & \boldsymbol{x}_n \cdot{} \boldsymbol{v}_j \end{pmatrix} \begin{pmatrix} \boldsymbol{x}_1 \cdot{} \boldsymbol{v}_j & \boldsymbol{x}_2 \cdot{} \boldsymbol{v}_j & \cdots{} & \boldsymbol{x}_n \cdot{} \boldsymbol{v}_j \end{pmatrix}^T \\ &=\frac{1}{n} \left( \begin{pmatrix} \boldsymbol{x}_1 \\ \boldsymbol{x}_2 \\ \vdots{} \\ \boldsymbol{x}_n \\ \end{pmatrix} \boldsymbol{v}_j \right)^T \left( \begin{pmatrix} \boldsymbol{x}_1 \\ \boldsymbol{x}_2 \\ \vdots{} \\ \boldsymbol{x}_n \\ \end{pmatrix} \boldsymbol{v}_j \right) \\ &= \frac{1}{n} \left(\boldsymbol{X}\boldsymbol{v}_j\right)^T \left(\boldsymbol{X}\boldsymbol{v}_j\right) \\ &= \frac{1}{n} \boldsymbol{v}_j^T\boldsymbol{X}^T\boldsymbol{X}\boldsymbol{v}_j \\ &= \boldsymbol{v}_j^T\boldsymbol{S}\boldsymbol{v}_j \end{aligned}

よって、ある主成分軸 jj への射影後の各データ点の分散を最大化するには、vjTSvj\boldsymbol{v}_j^T\boldsymbol{S}\boldsymbol{v}_j を最大化すればよいことが分かる。

特に、正規直交基底として vj2=1|\boldsymbol{v}_j|^2 = 1 を仮定していたので、この問題は制約付き最大化問題としてラグランジュの未定乗数法を用いて解くことができる。

  • ラグランジュの未定乗数法 - 多変数関数において条件付きの局地問題を解く方法
    • [定理] 束縛条件 g(x)=0g(\boldsymbol{x})=0 の下で、f(x)f(\boldsymbol{x}) を最大となる x\boldsymbol{x} を求める問題において、束縛条件に対して用意される定数 (未定乗数) を含めた新たな関数 L(x,λ)=f(x)+λg(x)\mathcal{L}(\boldsymbol{x}, \lambda{}) = f(\boldsymbol{x}) + \lambda{}g(\boldsymbol{x}) に対して、f(x)f(\boldsymbol{x}) が束縛条件 g(x)=0g(\boldsymbol{x})=0 の下で最大化されるとき、L/x=0,L/λ=0\partial{\mathcal{L}}/\partial{\boldsymbol{x}}=\boldsymbol{0}, \partial{\mathcal{L}}/\partial{\lambda{}}=0 が成立する。

要するに、

max.vjTSvjs.t.vjTvj=1\begin{aligned} \text{max.} &\quad{} \boldsymbol{v}_j^T\boldsymbol{S}\boldsymbol{v}_j \\ \text{s.t.} &\quad{} \boldsymbol{v}_j^T\boldsymbol{v}_j = 1 \end{aligned}

の解である jj 主成分軸のベクトル vj\boldsymbol{v}_j は、ラグランジュの未定乗数法によれば、λR\lambda{} \in{} \R を導入によって定義される L(vj,λ)=vjTSvjλ(vjTvj1)\mathcal{L}(\boldsymbol{v}_j, \lambda{}) = \boldsymbol{v}_j^T\boldsymbol{S}\boldsymbol{v}_j - \lambda{}(\boldsymbol{v}_j^T\boldsymbol{v}_j - 1) の極値問題を解くことで得られるということである。

L(vj,λ)\mathcal{L}(\boldsymbol{v}_j, \lambda{})vj\boldsymbol{v}_j で微分すると、

L/vj=2Svj2λvj=2(Svjλvj)\begin{aligned} \partial{\mathcal{L}}/\partial{\boldsymbol{v}_j} &= 2\boldsymbol{S}\boldsymbol{v}_j - 2\lambda{}\boldsymbol{v}_j \\ &=2(\boldsymbol{S}\boldsymbol{v}_j - \lambda{}\boldsymbol{v}_j) \end{aligned}

であり、L/vj=0\partial{\mathcal{L}}/\partial{\boldsymbol{v}_j} = 0 として解けば Svj=λvj\boldsymbol{S}\boldsymbol{v}_j = \lambda{}\boldsymbol{v}_j が得られるが、これは共分散行列 S\boldsymbol{S} に対する固有値問題に他ならない。

同様にして、L/λ=0\partial{\mathcal{L}}/\partial{\lambda{}} = 0 解いて得られる vjTvj=1\boldsymbol{v}_j^T\boldsymbol{v}_j = 1 は、正規直交基底の条件そのものである。

3.11.2 非負値行列因子分解 (NMF) 1

[Keywords]

  • イェンセンの不等式
  • 補助関数法

非負行列を2つの非負行列の積で表現する手法。

NMF

なぜ非負にこだわるのかというと、東京大学の資料 によれば、

  • 実世界には非負値データが多いこと
  • 係数行列をスパースに誘導することができ、その結果基底行列の情報量が増える

とのこと。

YHU\boldsymbol{Y} \approx{} \boldsymbol{H}\boldsymbol{U}

ただし、YR+N,K,HR+K,M,UR+M,N\boldsymbol{Y}\in\R_{+}^{N,K}, \boldsymbol{H}\in\R_{+}^{K,M}, \boldsymbol{U}\in\R_{+}^{M,N}であり、H\boldsymbol{H} を基底行列、U\boldsymbol{U} を係数行列という。

minD(H,U)=i=1Nj=1K(yi,jk=1Mhi,kuk,j)2s.t.hi,k0i=1,,N,k=1,,Muk,j0k=1,,M,j=1,,K\begin{aligned} \text{min} & \quad{} D(\boldsymbol{H},\boldsymbol{U}) = \sum_{i=1}^{N}\sum_{j=1}^{K}\left(y_{i,j} - \sum_{k=1}^{M}h_{i,k}u_{k,j}\right)^2\\ \text{s.t.} & \quad{} h_{i,k} \ge 0 \qquad{} i=1,\ldots{},N,k=1,\ldots{},M \\ & \quad{} u_{k,j} \ge 0 \qquad{} k=1,\ldots{},M,j=1,\ldots{},K \\ \end{aligned}

目的関数を展開すると、

D(H,U)=i=1Nj=1K(yi,jk=1Mhi,kuk,j)2=i=1Nj=1K(yi,j22yi,jk=1Mhi,kuk,j+(k=1Mhi,kuk,j)2)\begin{aligned} D(\boldsymbol{H},\boldsymbol{U}) = & \sum_{i=1}^{N}\sum_{j=1}^{K}\left(y_{i,j} - \sum_{k=1}^{M}h_{i,k}u_{k,j}\right)^2 \\ =& \sum_{i=1}^{N}\sum_{j=1}^{K} \left( y_{i,j}^2 - 2y_{i,j}\sum_{k=1}^{M}h_{i,k}u_{k,j} + \left(\sum_{k=1}^{M}h_{i,k}u_{k,j}\right)^2 \right) \end{aligned}

(補足)D(H,U)D(\boldsymbol{H},\boldsymbol{U}) の展開をさらに進めると、

i=1Nj=1K(yi,j22yi,jk=1Mhi,kuk,j+(k=1Mhi,kuk,j)2)=i=1Nj=1K(yi,j22yi,jk=1Mhi,kuk,j+k=1Mhi,k2uk,j2+2klhi,kuk,jhi,lul,j)\begin{aligned} & \sum_{i=1}^{N}\sum_{j=1}^{K} \left( y_{i,j}^2 - 2y_{i,j}\sum_{k=1}^{M}h_{i,k}u_{k,j} + \left(\sum_{k=1}^{M}h_{i,k}u_{k,j}\right)^2 \right) \\ =& \sum_{i=1}^{N}\sum_{j=1}^{K} \left( y_{i,j}^2 - 2y_{i,j}\sum_{k=1}^{M}h_{i,k}u_{k,j} + \sum_{k=1}^{M}h_{i,k}^2u_{k,j}^2 + 2\sum_{k\neq{}l}h_{i,k}u_{k,j}h_{i,l}u_{l,j} \right) \\ \end{aligned}

のように、hi,kvk,jh_{i,k}v_{k,j} に関する項が増え、解析的に解を求めることが困難になる。


ここで、k=1Mλi,j,k=1\sum_{k=1}^{M}\lambda{}_{i,j,k}=1 の下で λi,j,k>0\lambda{}_{i,j,k} > 0 を導入すると、イェンセンの不等式から、

i=1Nj=1K(yi,j22yi,jk=1Mhi,kuk,j+(k=1Mhi,kuk,j)2)=i=1Nj=1K(yi,j22yi,jk=1Mhi,kuk,j+(k=1Mλi,j,khi,kuk,jλi,j,k)2)i=1Nj=1K(yi,j22yi,jk=1Mhi,kuk,j+k=1Mλi,j,k(hi,kuk,jλi,j,k)2)=i=1Nj=1K(yi,j22yi,jk=1Mhi,kuk,j+k=1Mhi,k2uk,j2λi,j,k)\begin{aligned} & \sum_{i=1}^{N}\sum_{j=1}^{K} \left( y_{i,j}^2 - 2y_{i,j}\sum_{k=1}^{M}h_{i,k}u_{k,j} + \left(\sum_{k=1}^{M}h_{i,k}u_{k,j}\right)^2 \right) \\ =& \sum_{i=1}^{N}\sum_{j=1}^{K} \left( y_{i,j}^2 - 2y_{i,j}\sum_{k=1}^{M}h_{i,k}u_{k,j} + \left(\sum_{k=1}^{M} \lambda{}_{i,j,k} \frac{h_{i,k}u_{k,j}}{\lambda{}_{i,j,k}}\right)^2 \right) \\ \le& \sum_{i=1}^{N}\sum_{j=1}^{K} \left( y_{i,j}^2 - 2y_{i,j}\sum_{k=1}^{M}h_{i,k}u_{k,j} + \sum_{k=1}^{M}\lambda{}_{i,j,k}\left(\frac{h_{i,k}u_{k,j}}{\lambda{}_{i,j,k}}\right)^2 \right) \\ =& \sum_{i=1}^{N}\sum_{j=1}^{K} \left( y_{i,j}^2 - 2y_{i,j}\sum_{k=1}^{M}h_{i,k}u_{k,j} + \sum_{k=1}^{M}\frac{h_{i,k}^2u_{k,j}^2}{\lambda{}_{i,j,k}} \right)\\ \end{aligned}

と目的関数の上限となる関数が得られ、これを λ={λi,j,k}N×K×M\boldsymbol{\lambda{}} = \{\lambda{}_{i,j,k}\}_{N\times{}K\times{}M} を用いて G(H,U,λ)G(\boldsymbol{H}, \boldsymbol{U}, \boldsymbol{\lambda{}}) とおく。等号は、hi,1u1,jλi,j,1=hi,2u2,jλi,j,2==hi,MuM,jλi,j,M\frac{h_{i,1}u_{1,j}}{\lambda{}_{i,j,1}} = \frac{h_{i,2}u_{2,j}}{\lambda{}_{i,j,2}} = \cdots{} = \frac{h_{i,M}u_{M,j}}{\lambda{}_{i,j,M}} のとき成り立つ。

これにより、補助関数法に従えば、

λarg minλG(H,U,λ)Harg minHG(H,U,λ)Uarg minUG(H,U,λ)\begin{aligned} \boldsymbol{\lambda{}} &\leftarrow{} \underset{\boldsymbol{\boldsymbol{\lambda{}}}}{\argmin{}}G(\boldsymbol{H}, \boldsymbol{U}, \boldsymbol{\lambda{}}) \\ \boldsymbol{H} &\leftarrow{} \underset{\boldsymbol{H}}{\argmin{}}G(\boldsymbol{H}, \boldsymbol{U}, \boldsymbol{\lambda{}}) \\ \boldsymbol{U} &\leftarrow{} \underset{\boldsymbol{U}}{\argmin{}}G(\boldsymbol{H}, \boldsymbol{U}, \boldsymbol{\lambda{}}) \end{aligned}

を繰り返し行うことで、目的関数 D(H,U)D(\boldsymbol{H},\boldsymbol{U}) の値を最小化できるということである。

まず、イェンセンの不等式の等号成立条件 hi,1u1,jλi,j,1=hi,2u2,jλi,j,2==hi,MuM,jλi,j,M\frac{h_{i,1}u_{1,j}}{\lambda{}_{i,j,1}} = \frac{h_{i,2}u_{2,j}}{\lambda{}_{i,j,2}} = \cdots{} = \frac{h_{i,M}u_{M,j}}{\lambda{}_{i,j,M}} から、

λi,j,1=hi,1u1,jhi,1u1,jλi,j,1λi,j,2=hi,2u2,jhi,1u1,jλi,j,1λi,j,M=hi,MuM,jhi,1u1,jλi,j,1\begin{aligned} \lambda{}_{i,j,1} &= \frac{h_{i,1}u_{1,j}}{h_{i,1}u_{1,j}}\lambda{}_{i,j,1} \\ \lambda{}_{i,j,2} &= \frac{h_{i,2}u_{2,j}}{h_{i,1}u_{1,j}}\lambda{}_{i,j,1} \\ \vdots{} \\ \lambda{}_{i,j,M} &= \frac{h_{i,M}u_{M,j}}{h_{i,1}u_{1,j}}\lambda{}_{i,j,1} \\ \end{aligned}

が得られ、k=1Mλi,j,k=1\sum_{k=1}^{M}\lambda{}_{i,j,k}=1 に代入すると、

hi,1u1,jhi,1u1,jλi,j,1+hi,2u2,jhi,1u1,jλi,j,1++hi,MuM,jhi,1u1,jλi,j,1=1\frac{h_{i,1}u_{1,j}}{h_{i,1}u_{1,j}}\lambda{}_{i,j,1}+ \frac{h_{i,2}u_{2,j}}{h_{i,1}u_{1,j}}\lambda{}_{i,j,1} + \cdots{}+ \frac{h_{i,M}u_{M,j}}{h_{i,1}u_{1,j}}\lambda{}_{i,j,1} = 1

から、

λi,j,1=hi,1u1,jk=1Mhi,kvk,j\lambda{}_{i,j,1} = \frac{h_{i,1}u_{1,j}}{\sum_{k=1}^{M}{h_{i,k}v_{k,j}}}

が得られる。λi,j,2,,λi,j,M\lambda{}_{i,j,2},\ldots{},\lambda{}_{i,j,M} らについても同様に計算すると、

λi,j,k=hi,kuk,jk=1Mhi,kvk,j\lambda{}_{i,j,k} = \frac{h_{i,k}u_{k,j}}{\sum_{k'=1}^{M}{h_{i,k'}v_{k',j}}}

として関数 G(H,U,λ)G(\boldsymbol{H}, \boldsymbol{U}, \boldsymbol{\lambda{}}) の最小の値を与える λ\boldsymbol{\lambda{}} が計算できた。

次に、G(H,U,λ)G(\boldsymbol{H}, \boldsymbol{U}, \boldsymbol{\lambda{}}) は、次式のように行列 H\boldsymbol{H} の各要素 hi,kh_{i,k} ごとに分離できる。各 hi,kh_{i,k} について整理すると、

G(H,U,λ)=i=1Nj=1Kyi,j2+i=1Nk=1M((j=1K2yi,jvk,j)hi,k+(j=1Kuk,j2λi,j,k)hi,k2)G(\boldsymbol{H},\boldsymbol{U},\boldsymbol{\lambda{}}) = \sum_{i=1}^{N}\sum_{j=1}^{K}y_{i,j}^2 + \sum_{i=1}^{N}\sum_{k=1}^{M}\left( \left( \sum_{j=1}^{K}-2y_{i,j}v_{k,j} \right) h_{i,k} + \left( \sum_{j=1}^{K} \frac{u_{k,j}^2}{\lambda{}_{i,j,k}} \right) h_{i,k}^2 \right)

のように、hi,kh_{i,k} ごとに独立な二次関数の和の形で表現できるので、それぞれの hi,kh_{i,k} を個別に最小化することで式全体を最小化できる。式の値を最小化する各 h^i,k\hat{h}_{i,k} は、

h^i,k=j=1Kyi,jvk,jj=1Kuk,j2λi,j,k\hat{h}_{i,k} = \frac{\sum_{j=1}^{K} y_{i,j}v_{k,j}}{\sum_{j=1}^{K} \frac{u_{k,j}^2}{\lambda{}_{i,j,k}}}

であり、同様にして行列 U\boldsymbol{U} の各要素 uk,ju_{k,j} に対しても G(H,U,λ)G(\boldsymbol{H},\boldsymbol{U},\boldsymbol{\lambda{}}) を最小化する u^k,j\hat{u}_{k,j} も、

u^k,j=i=1Nyi,jhi,ki=1Nhi,k2λi,j,k\hat{u}_{k,j} = \frac{\sum_{i=1}^{N} y_{i,j}h_{i,k}}{\sum_{i=1}^{N} \frac{h_{i,k}^2}{\lambda{}_{i,j,k}}}

のように求まる。

各行列要素の値の更新を繰り返すことで、目的関数 D(H,U)D(\boldsymbol{H},\boldsymbol{U}) の値を単調減少させることができる。

イェンセンの不等式 (Jensen’s inequality)

任意の凸関数 ggII 個の実数 x1,,xIx_1,\ldots{},x_Ii=1Iλi=1\sum_{i=1}^{I}{\lambda{}_i}=1 を満たす II 個の正値の重み係数 λ1,,λI\lambda{}_1,\ldots{},\lambda{}_I のもとで、

g(i=1Iλixi)i=1Iλig(xi)g\left(\sum_{i=1}^{I}{\lambda{}_i x_{i}}\right) \le \sum_{i=1}^{I}{\lambda_{i}g(x_i)}

が成り立つ。等号は x1=x2==xIx_1=x_2=\cdots{}=x_I のとき成立する。

(証明) I=2I=2 のとき、不等式は凸関数の性質そのものである。I=kI=k のとき、不等式が成り立つと仮定して、I=k+1I=k+1 のとき、

g(i=1k+1λixi)i=1k+1λig(xi)g\left(\sum_{i=1}^{k+1}{\lambda{}_i x_{i}}\right) \le \sum_{i=1}^{k+1}{\lambda_{i}g(x_i)}

となることを示したい。

問題の仮定より、i=1k+1λi=1\sum_{i=1}^{k+1}{\lambda{}_i}=1 である。ここで、i=1kλi1λk+1=1\sum_{i=1}^{k}{\frac{\lambda{}_i}{1-\lambda_{k+1}}}=1 であることと、帰納法の仮定から、

g(i=1kλi1λk+1xi)i=1kλi1λk+1g(xi)(1)g\left(\sum_{i=1}^{k}{\frac{\lambda{}_i}{1-\lambda_{k+1}} x_{i}}\right) \le \sum_{i=1}^{k}{\frac{\lambda_{i}}{1-\lambda_{k+1}}g(x_i)} \tag{1}

が得られる。

さらに、(1λk+1)+λk+1=1(1-\lambda_{k+1})+\lambda_{k+1}=1 と凸関数の性質から、

g((1λk+1)(i=1kλi1λk+1xi)+λk+1xk+1)(1λk+1)g(i=1kλi1λk+1xi)+λk+1g(xk+1)\begin{aligned} g\left((1-\lambda_{k+1}) \left(\sum_{i=1}^{k}{\frac{\lambda{}_i}{1-\lambda_{k+1}}}x_i \right) + \lambda_{k+1}x_{k+1} \right) &\le (1-\lambda_{k+1})g\left(\sum_{i=1}^{k}{\frac{\lambda{}_i}{1-\lambda_{k+1}}}x_i\right) + \lambda_{k+1}g(x_{k+1}) \\ \end{aligned}

であり、右辺は (1)(1) より、

(1λk+1)g(i=1kλi1λk+1xi)+λk+1g(xk+1)(1λk+1)i=1kλi1λk+1g(xi)+λk+1g(xk+1)=i=1k+1λig(xi)\begin{aligned} (1-\lambda_{k+1})g\left(\sum_{i=1}^{k}{\frac{\lambda{}_i}{1-\lambda_{k+1}}}x_i\right) + \lambda_{k+1}g(x_{k+1}) &\le (1-\lambda{}_{k+1})\sum_{i=1}^{k}{\frac{\lambda_{i}}{1-\lambda_{k+1}}g(x_i)} + \lambda{}_{k+1}g(x_{k+1}) \\ &= \sum_{i=1}^{k+1}{\lambda{}_ig(x_i)} \end{aligned}

によって題意の不等式が示された。

補助関数法

目的関数が非線形であるといった理由等で解の探索が困難な場合、目的関数の上限となる補助関数を反復的に降下させることで目的関数を間接的に降下させることができる。

θ={θi}1iI\theta{}=\{\theta{}_i\}_{1\le{i}\le{I}} を変量とする目的関数 D(θ)D(\theta{}) に対し、

D(θ)=minθˉG(θ,θˉ)D(\theta{}) = \underset{{\bar{\theta{}}}}{\min{}}G(\theta{}, \bar{\theta{}})

が成り立つとき、G(θ,θˉ)G(\theta{}, \bar{\theta{}})D(θ)D(\theta{}) を補助関数、θˉ\bar{\theta{}} を補助変数という。

補助関数 G(θ,θˉ)G(\theta{},\bar{\theta{}}) を、θˉ\bar{\theta{}} に関して最小化するステップと、θ1,,θI\theta_{1},\ldots{},\theta_{I} に関して最小化するステップ

θˉarg minθˉG(θ,θˉ)θiarg minθiG(θ,θˉ)\begin{aligned} \bar{\theta} &\leftarrow{} \underset{\bar{\theta{}}}{\argmin{}}{G(\theta{}, \bar{\theta{}})} \\ \theta{}_i &\leftarrow{} \underset{\theta{}_i}{\argmin{}}{G(\theta{},\bar{\theta{}})} \end{aligned}

を繰り返すと、目的関数 D(θ)D(\theta{}) の値は単調減少する。

3.11.3 Latent Dirichlet Allocation (LDA)

3.11.4 線形判別分析 (LDA, Linear Discriminant Analysis)

分類タスクについて教師ありで次元削減を行う手法。

3.11.5 t-SNE、UMAP

元の空間での点同士の近さが、圧縮後の空間での点同士の近さと出来るだけ同じになるように圧縮する手法。

SNE

データ点 xi,xjx_i,x_j の類似度を、「xjx_jxix_i を中心とした正規分布に基づいて確率的に選択されると仮定した上でxix_i が与えられた時に、近傍として xjx_j として選択する条件付き確率」と定義する。

P(ji)=expxixj2/2σi2kiexpxixk2/2σi2\begin{aligned} P(j|i) = \frac{\exp{-||x_i-x_j||^2/2\sigma_i^2}}{\sum_{k\neq{}i}{\exp{-||x_i-x_k||^2/2\sigma_i^2}}} \end{aligned}

(参考) 正規分布の確率密度関数

f(xμ,σ)=1σ2πexp12(xμσ)2f(x|\mu, \sigma) = \frac{1}{\sigma\sqrt{2\pi}}\exp{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}

t-distributed Stochastic Neighbor Embedding (t 分布型確率的近傍埋め込み)

https://jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf

3.11.6 オートエンコーダ

入力と同じものを出力するようにトレーニングされたニューラルネットワークを用いる手法。

3.11.7 クラスタリング

Footnotes

  1. Lee, Daniel & Seung, Hyunjune. (2001). Algorithms for Non-negative Matrix Factorization. Adv. Neural Inform. Process. Syst.. 13.