摘要: PCA做法 deep auto-encoder做法 deep auto-encoder还原的图会更接近原图,但这并不是重点,要不然直接输出原图就好了,降维干嘛 重点是降维后能分开 例子: 阅读全文
posted @ 2019-09-12 16:49 路文希 阅读(271) 评论(0) 推荐(0) 编辑
摘要: 凭借的是降维前的空间中,每一个点和它的邻居之间的关系进行降维。 也叫流形学习Manifold Learning。 那个点离黄色点更远还是离红色点更远呢,表面上好像黄色点更远,但是按照形状其实红色更远,就像要降维之后再观察 方法一:局部线性嵌入(LLE) LLE目的也是降维,第一步找出wij K不能太 阅读全文
posted @ 2019-09-12 10:59 路文希 阅读(250) 评论(0) 推荐(0) 编辑
摘要: 有多少个词汇就有多少维向量,只有表示它那维是1其他都是0。这样不知道词汇之间的关系,所以可以采用class。但是这样太粗糙了,引入word embedding。 word embedding简介: 根据词汇的上下文找出它的vector count based:两个词经常一起出现,给他们一个相似的向量 阅读全文
posted @ 2019-09-12 10:59 路文希 阅读(350) 评论(0) 推荐(0) 编辑