随笔分类 -  Machine Learning

摘要: 阅读全文
posted @ 2019-09-18 17:40 今夜无风 阅读(220) 评论(0) 推荐(0) 编辑
摘要:不知道为什么大家那么偏爱json格式,清晰?跨平台?或许这都是它的优点吧,之前我都是将我的数据放到txt中,今后就用json吧。初步写了一个写入json的模板,就这么用吧。 阅读全文
posted @ 2019-05-28 16:24 今夜无风 阅读(1444) 评论(0) 推荐(0) 编辑
摘要:1.什么是opencc? Open Chinese Convert(OpenCC)是一个开源的中文简繁转换项目,致力于制作高质量的基于统计预料的简繁转换词库。还提供函数库(libopencc)、命令行简繁转换工具、人工校对工具、词典生成程序、在线转换服务及图形用户界面。 2.我用在了哪里? 之前做文 阅读全文
posted @ 2019-05-18 15:16 今夜无风 阅读(3919) 评论(0) 推荐(0) 编辑
摘要:虽然,虽然,虽然,今天: 百度发布了2019年第一季度未经审计的财务报告。本季度百度营收241亿元人民币(约合35.9亿美元),同比增长15%,移除业务拆分收入影响,同比增长21%。低于市场预期242.7亿元。净亏损为人民币3.27亿元(约合4900万美元),去年同期净利润为人民币66.94亿元。这 阅读全文
posted @ 2019-05-18 14:16 今夜无风 阅读(3722) 评论(0) 推荐(0) 编辑
摘要:今日看了一篇文章《Learning to Select Knowledge for Response Generation in Dialog Systems》,以知识信息、对话目标、对话历史信息为基础,进行端到端的对话语句生成。期间做了一些笔记,还有个人想法。大家一起进步! 阅读全文
posted @ 2019-03-26 09:17 今夜无风 阅读(1366) 评论(2) 推荐(1) 编辑
摘要:做的文本二分类,使用tensorRT进行图优化和加速,输出预测概率结果对比如下: 从结果对比来看,概率值有微小的变化,但不影响最终的分类 阅读全文
posted @ 2019-03-25 12:23 今夜无风 阅读(773) 评论(0) 推荐(0) 编辑
摘要:使用tensorRT之前,你一定要注意你的网络结构是否能够得到trt的支持,无论是CNN还是RNN都会有trt的操作。 例如:tf.nn.dropout(features, keep_prob),trt就不支持。 这个也不奇怪,因为trt在要求输入中,只要你传入样本数据,那你就不能feed一个数值, 阅读全文
posted @ 2019-03-25 12:15 今夜无风 阅读(811) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-03-19 15:38 今夜无风 阅读(4620) 评论(0) 推荐(0) 编辑
摘要:话不多说,直接上代码 阅读全文
posted @ 2019-03-19 14:02 今夜无风 阅读(5252) 评论(0) 推荐(0) 编辑
摘要:K折交叉验证时使用: KFold(n_split, shuffle, random_state) 参数:n_split:要划分的折数 shuffle: 每次都进行shuffle,测试集中折数的总和就是训练集的个数 random_state:随机状态 阅读全文
posted @ 2019-03-19 13:54 今夜无风 阅读(26431) 评论(2) 推荐(1) 编辑
摘要:当你的深度学习模型变得很多时,选一个确定的模型也是一个头痛的问题。或者你可以把他们都用起来,就进行模型融合。我主要使用stacking和blend方法。先把代码贴出来,大家可以看一下。 阅读全文
posted @ 2019-03-19 11:03 今夜无风 阅读(7123) 评论(0) 推荐(0) 编辑
摘要:在实际的nlp实际任务中,你有一大堆的人工标注的关键词,来新的一句话,找出这句话中的关键词,以便你以后使用,那如何来做呢? 1)用到正则的 finditer()方法,返回你匹配的关键词的迭代对象,包含起始结束索引 2)增强list循环,提取数据 代码如下: 这里我只要开始索引,结果如下: 之后,你想 阅读全文
posted @ 2019-03-14 11:42 今夜无风 阅读(1283) 评论(0) 推荐(0) 编辑
摘要:最近已经训练好了一版基于DeepLearning的文本分类模型,TextCNN原理。在实际的预测中,如果默认模型会优先选择GPU那么每一次实例调用,都会加载GPU信息,这会造成很大的性能降低。 那么,在使用的过程中我们无关乎使用GPU还是CPU,使用CPU反而是很快的,所以在有GPU的服务器部署模型 阅读全文
posted @ 2019-02-21 17:17 今夜无风 阅读(1790) 评论(0) 推荐(0) 编辑
摘要:最近在做二分类模型的调优工作。最终发现模型的正例精度在95%,而正例的召回率在83%,这是什么情况呢。 我把模型预测的2000条样本结果的错误标签和内容都打印出来,发现,在样本标注的时候,多数的正样本被错误的标注为负样本,这样模型学到正例的能力就变弱了,这样将大多数正样本预测为负样本的同时,负样本的 阅读全文
posted @ 2019-02-18 10:33 今夜无风 阅读(7637) 评论(0) 推荐(0) 编辑
摘要:有时我们的样本标签,都是标记从0开始直至到类别的个数。在模型训练的时候,这些标签需要变成one_hot向量,这样才能够跟softmax出来的概率做互熵损失,计算loss。 那么,映射的方法如下: y: 类型是list,样本的类别标签序列 n_class: 类别的个数 输出: 阅读全文
posted @ 2018-12-27 09:06 今夜无风 阅读(4100) 评论(0) 推荐(0) 编辑
摘要:(1)语料库中56万条数据,分为14个类别 (2)现在训练模型,采样率设定为0.01,即5600条样本 (3)观察用于模型训练数据的分布 展示: 思考:模型训练的数据不是越多越好吗?何况使用深度学习模型,那作者为什么不不同56万条,而是用5600条训练模型。如果可以达到效果,那么说,对于小容量的数据 阅读全文
posted @ 2018-12-25 14:32 今夜无风 阅读(534) 评论(0) 推荐(0) 编辑
摘要:相信很多人都会有这种疑惑,我们用标准数据来训练,但是在真是的测试过程中,输入数据的并不会是标准数据,导致了训练与测试的两个过程中数据分布的不一致。 首先要说,训练集合与测试集合的分布完全一样,这个不太现实,因为相对于有限的训练集,测试集合理论上趋于无限大,所以无法穷尽。然而我们也不能为了单单去拟合我 阅读全文
posted @ 2018-12-25 13:42 今夜无风 阅读(2084) 评论(0) 推荐(0) 编辑
摘要:(1)保证以后生成的随机数是一样的 (2)生成N行,M列的随机数 (3)对生成的随机数每个数据都增加数值 (4)按照顺序将元素堆叠起来,可以是元组,列表’ (5)生成网格采样点 start:开始坐标 stop:结束坐标(不包括) step:步长 举例子 res = np.mgrid[-3:3:.1, 阅读全文
posted @ 2018-12-25 12:20 今夜无风 阅读(460) 评论(0) 推荐(0) 编辑
摘要:36.什么时候你应该在不同分布上做训练和测试 当你的猫app已经上传10000张图,你已经人工标记它们有没有猫,同时你有200000张互联网上下载的图,这时你要怎么划分训练开发测试集呢? 当你训练深度学习模型时,可能必须用到那200000张图,那么训练和测试集的分布就不同,这会怎样影响你的工作呢?  阅读全文
posted @ 2018-12-25 10:18 今夜无风 阅读(1586) 评论(0) 推荐(0) 编辑
摘要:官网API是这么说的 This operation outputs a Tensor that holds the new value of 'ref' after the value has been assigned. This makes it easier to chain operatio 阅读全文
posted @ 2018-12-21 10:52 今夜无风 阅读(209) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示