李宏毅 DeepLearning-2017-Semi-supervised Learning

对我们来说,我们从来不缺都是data,但是缺的是有label的data,所以需要semi-supervised Learning
这里unlabel data是只告诉我们function Model的输入,但是不告诉输出,而且unlabeled data远大于labels data

在这里插入图片描述
unlabeled data伴随着一些分布的假设,semi-supervised Learning 是否有用决定于你的假设是否有用(精确和符合实际)

在这里插入图片描述
方法:

在这里插入图片描述
传统的监督学习的分布
在这里插入图片描述
计算新的MODEL
在这里插入图片描述
原本只有label data的时候,每一笔的data的likelihood都是可以算出来的,
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
衡量分布是否集中的方法:Entropy of yu,越小越好,越小越集中,拉姆达表示是偏向unlabeled data多一点还是小一点
在这里插入图片描述
SVM穷举unlabeled data 的可能得label,得到margin最大,world loss最小
在这里插入图片描述
第二种方法:
在这里插入图片描述
x的分布是不集中的,有些集中有些分散,X1->X2比较简单到达,中间有high density region,很有可能X1,X2有相同的label
在这里插入图片描述
在这里插入图片描述
第三种方法:一同聚类,然后lable 他
在这里插入图片描述
在这里插入图片描述
如何建设graph
相似度计算函数f(x,x’)
在这里插入图片描述
在这里插入图片描述
相连的线上point的S然后相加,来判断谁更SMOOTH
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/zjguilai/article/details/90108167