Lv.的博客
摘要: 从概率分布的角度考虑,对于一堆样本数据,每个均有特征Xi对应分类标记yi。 生成模型:学习得到联合概率分布P(x,y),即特征x和标记y共同出现的概率,然后求条件概率分布。能够学习到数据生成的机制。 判别模型:学习得到条件概率分布P(y|x),即在特征x出现的情况下标记y出现的概率。 数据要求:生成 阅读全文
posted @ 2019-10-01 13:17 Avatarx 阅读(1082) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/u013385925/article/details/80385873 面试的时候,一句话说明AUC的本质和计算规则: AUC:一个正例,一 阅读全文
posted @ 2019-10-01 13:00 Avatarx 阅读(2118) 评论(0) 推荐(1) 编辑
摘要: 要搞清楚embeding先要弄明白他和one hot encoding的区别,以及他解决了什么one hot encoding不能解决的问题,带着这两个问题去思考,在看一个简单的计算例子 以下引用 YJango的Word Embedding–介绍https://zhuanlan.zhihu.com/ 阅读全文
posted @ 2019-10-01 10:14 Avatarx 阅读(846) 评论(0) 推荐(0) 编辑