李宏毅机器学习课程笔记-10.2生成模型中的半监督学习
生成模型中的半监督学习:Semi-supervised Learning for Generative Model
有监督生成模型
有监督生成模型:Supervised Generative Model
如下图所示,在有监督生成模型中,得到\(P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\)后,就可以计算出\(x\)属于类别\(C_i\)的概率\(P(C_i|x)\)。
半监督生成模型
半监督生成模型:Semi-supervised Generative Model
基于有监督生成模型,当有了无标签数据之后(下图中绿色圆点),我们会明显发现有监督生成模型中的\(P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\)并不够正确,比如2个类别的分布应该接近于下图中虚线圆圈、先验概率\(P(C_1)\)应该小于\(P(C_2)\),所以应该使用无标签数据重新估计\(P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\)。
直观理解
具体来讲,按照以下步骤进行计算:
-
初始化参数:\(\theta=\{P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\}\)
可以随机初始化,也可以用有标签数据估算
-
通过\(\theta\)计算每个样本\(x^u\)属于类别\(C_i\)的概率\(P_\theta(C_i|x^u)\)
-
更新参数\(\theta\)(其实重点就是如何同时利用有标签数据和无标签数据实现半监督)
- \(P(C_1)=\frac{N_1+\sum_{x^u}P(C_1|x^u)}{N}\),其中\(N\)是所有样本的数量、\(N_1\)是属于类别\(C_1\)的样本的数量。
- \(\mu^1=\frac{1}{N_1}\sum_{x^r\in C_1}x^r+\frac{1}{\sum_{x^u}P(C_1|x^u)}\sum_{x^u}P(C_1|x^u)x^u\),其中\(x^r,x^u\)分别指有标签的样本和无标签的样本
同理可知其它参数的计算和更新方法
- 返回第2步
理论上,上述步骤是可以收敛的,但参数\(\theta\)的初始化值会影响结果。其实上面的第2步是EM算法中的E,第3步是EM算法中的M。
理论推导
\(\theta=\{P(C_1),P(C_2),\mu^1,\mu^2,\Sigma\}\)
-
Maximum likelihood with labelled data
使得\(logL(\theta)=\sum_{x^r}logP_\theta(x^r, \hat y^r)\)最大(有一个Closed-form solution),其中每个有标注样本\(x^r\)的\(P_\theta(x^r,\hat y^r)=P_\theta(x^r|\hat y^r)P(\hat y^r)\)。
-
Maximum likelihood with labelled & unlabeled data
使得\(logL(\theta)=\sum_{x^r}logP_\theta(x^r, \hat y^r)+\sum_{x^u}logP_\theta(x^u)\)最大(该式并不是凹函数,所以需要迭代求解),其中每个无标注样本\(x^u\)的\(P_\theta(x^u)=P_\theta(x^u|C_1)P(C_1)+P_\theta(x^u|C_2)P(C_2)\)
Github(github.com):@chouxianyu
Github Pages(github.io):@臭咸鱼
知乎(zhihu.com):@臭咸鱼
博客园(cnblogs.com):@臭咸鱼
B站(bilibili.com):@绝版臭咸鱼
微信公众号:@臭咸鱼
转载请注明出处,欢迎讨论和交流!