上一页 1 ··· 26 27 28 29 30 31 32 33 34 ··· 56 下一页
摘要: 一、创建自定义图像 figure figure(num=None, figsize=None, dpi=None, facecolor=None, edgecolor=None, frameon=True) num:图像编号或名称,数字为编号 ,字符串为名称 figsize:指定figure的宽和高 阅读全文
posted @ 2019-06-03 21:37 nxf_rabbit75 阅读(463) 评论(0) 推荐(0) 编辑
摘要: 协同过滤需要注意的三点: gray sheep(有人喜欢追求特别,协同过滤一般只能从共同的人或物间找相似) shilling attack(水军刷好评导致数据错误,无法带来精确的推荐) cold start(冷启动,初次登陆网站,没有给商品打分,怎么推荐) 1.基于memory的CF (1)基于用户 阅读全文
posted @ 2019-06-03 17:16 nxf_rabbit75 阅读(426) 评论(0) 推荐(0) 编辑
摘要: 计算网页的支持度,主要由两部分组成:own pagerank 和 number of outbound links 网页的pagerank取决于指向该网页的pagerank和数量 阅读全文
posted @ 2019-06-03 16:33 nxf_rabbit75 阅读(248) 评论(0) 推荐(0) 编辑
摘要: 举例: 矩阵分解之后,取前两维,k=2, 单词距离: 文档距离: 通过LSA分析之后计算文档间的余弦相似度,属于同一个类型文本之间的相似度很接近;在原始文档间计算相似度,效果不如LSA 当出现新的query,先将query降到二维空间,再和已有文档的二维矩阵计算相似度,可以看出query与C类文档相 阅读全文
posted @ 2019-06-03 16:12 nxf_rabbit75 阅读(895) 评论(0) 推荐(0) 编辑
摘要: 修改X,Y,Z轴的刻度值 from matplotlib.ticker import MultipleLocator,FuncFormatter from mpl_toolkits.mplot3d import Axes3D import matplotlib.pyplot as plt from 阅读全文
posted @ 2019-06-02 23:29 nxf_rabbit75 阅读(9514) 评论(0) 推荐(0) 编辑
摘要: 在adaboost当中,样本的权重alpha是固定的,蓝色五角星所在的圈中3个○分错了,红色五角星所在的圈中4个×和1个○都分对了,很容易让人想到,这个模型,对于红色位置的判断更加可信。 动态权重,每个x都会有特定的权重,不同的分类器对于不同的样本的权重是不一样的 base classifer:分○ 阅读全文
posted @ 2019-06-02 18:22 nxf_rabbit75 阅读(788) 评论(0) 推荐(0) 编辑
摘要: 一.问题建模 1.评价指标 1.1分类指标 二分类 精确率 P=TP/(TP+FP) 召回率 R=TP/(TP+FN) F1值 2PR/(P+R) P R曲线 横轴是召回率0 1,纵轴为对应的召回率下的精确率 ROC曲线 横轴为假正率FPF=FP/(FP+TN),纵轴为真正率TPR=TP/(TP+F 阅读全文
posted @ 2019-05-28 18:07 nxf_rabbit75 阅读(1818) 评论(0) 推荐(0) 编辑
摘要: Bagging 思想: Bagging 思想: 思想: Bagging就是通过M个弱模型的结果,通过并行集成的方式来获得最终结果。因为M个数据集是相互独立的,因此这M个弱模型之间也是相互独立的,在最终的集成结果时,每个模型的权重是一样的。这是和Boosting所不同的。 集成方式: 回归问题 M个模 阅读全文
posted @ 2019-05-27 17:37 nxf_rabbit75 阅读(383) 评论(0) 推荐(0) 编辑
摘要: 一、Catboost简介 全称:Gradient Boosting(梯度提升) + Categorical Features(类别型特征) 作者:俄罗斯的搜索巨头Yandex 官方地址 论文链接 | 项目地址 文档地址 视频 二、Catboost的特点 一般来说,Gradient Boosting( 阅读全文
posted @ 2019-05-25 19:05 nxf_rabbit75 阅读(5893) 评论(0) 推荐(0) 编辑
摘要: 模型: FastText TextCNN TextRNN RCNN 分层注意网络(Hierarchical Attention Network) 具有注意的seq2seq模型(seq2seq with attention) Transformer("Attend Is All You Need") 阅读全文
posted @ 2019-05-24 11:47 nxf_rabbit75 阅读(1598) 评论(0) 推荐(0) 编辑
上一页 1 ··· 26 27 28 29 30 31 32 33 34 ··· 56 下一页