上一页 1 ··· 41 42 43 44 45 46 47 48 49 ··· 64 下一页
摘要: 输出: {1: 3, 2: 2, 3: 1} 阅读全文
posted @ 2018-12-25 13:53 今夜无风 阅读(1046) 评论(0) 推荐(0) 编辑
摘要: 相信很多人都会有这种疑惑,我们用标准数据来训练,但是在真是的测试过程中,输入数据的并不会是标准数据,导致了训练与测试的两个过程中数据分布的不一致。 首先要说,训练集合与测试集合的分布完全一样,这个不太现实,因为相对于有限的训练集,测试集合理论上趋于无限大,所以无法穷尽。然而我们也不能为了单单去拟合我 阅读全文
posted @ 2018-12-25 13:42 今夜无风 阅读(2027) 评论(0) 推荐(0) 编辑
摘要: (1)保证以后生成的随机数是一样的 (2)生成N行,M列的随机数 (3)对生成的随机数每个数据都增加数值 (4)按照顺序将元素堆叠起来,可以是元组,列表’ (5)生成网格采样点 start:开始坐标 stop:结束坐标(不包括) step:步长 举例子 res = np.mgrid[-3:3:.1, 阅读全文
posted @ 2018-12-25 12:20 今夜无风 阅读(455) 评论(0) 推荐(0) 编辑
摘要: 36.什么时候你应该在不同分布上做训练和测试 当你的猫app已经上传10000张图,你已经人工标记它们有没有猫,同时你有200000张互联网上下载的图,这时你要怎么划分训练开发测试集呢? 当你训练深度学习模型时,可能必须用到那200000张图,那么训练和测试集的分布就不同,这会怎样影响你的工作呢?  阅读全文
posted @ 2018-12-25 10:18 今夜无风 阅读(1554) 评论(0) 推荐(0) 编辑
摘要: 命名实体的标注有两种方式:1)BIOES 2)BIO 实体的类别可以自己根据需求改变,通常作为原始数据来说,标注为BIO的方式。自己写了一套标注方法,大家可以参考下 原文:1.txt Inspired by energy-fueled phenomena such as cortical cytos 阅读全文
posted @ 2018-12-24 15:36 今夜无风 阅读(5950) 评论(3) 推荐(0) 编辑
摘要: 在进行模型训练前,我们要将数据打乱,以获得更好的训练效果。可以使用sklearn.utils中的shuffle,获得打乱后的数据索引,最后,迭代生成打乱后的batch数据,一个写好的模块如下。 思路是:1.先shuffle 2.再迭代生成 阅读全文
posted @ 2018-12-24 09:44 今夜无风 阅读(1899) 评论(0) 推荐(0) 编辑
摘要: tf.abs() 求tensor中数据的绝对值 tf.sign() 每一个数据都执行sigmod函数,得到对应的数值 tf.reduce_sum() 对不同维度数据求和。注意:1:求和每一行 0:求和每一列 tf.cast() 数值转换 演示: 输出: 阅读全文
posted @ 2018-12-21 15:22 今夜无风 阅读(390) 评论(0) 推荐(0) 编辑
摘要: 官网API是这么说的 This operation outputs a Tensor that holds the new value of 'ref' after the value has been assigned. This makes it easier to chain operatio 阅读全文
posted @ 2018-12-21 10:52 今夜无风 阅读(201) 评论(0) 推荐(0) 编辑
摘要: cross_val_score(model_name, x_samples, y_labels, cv=k) 作用:验证某个模型在某个训练集上的稳定性,输出k个预测精度。 K折交叉验证(k-fold) 把初始训练样本分成k份,其中(k-1)份被用作训练集,剩下一份被用作评估集,这样一共可以对分类器做 阅读全文
posted @ 2018-12-21 10:22 今夜无风 阅读(7596) 评论(0) 推荐(1) 编辑
摘要: 当我们训练的词向量保存为txt时候,如果不是直接读取到内存,找对应词的向量,这样会非常耗时 方法1.用gensim读取成model的形式,从内存中获得数据 方法2.读取txt文件,用enumerate()将数据放到字典里面,后期查找的时候用这个字典,主要代码如下: 阅读全文
posted @ 2018-12-20 17:28 今夜无风 阅读(574) 评论(0) 推荐(0) 编辑
上一页 1 ··· 41 42 43 44 45 46 47 48 49 ··· 64 下一页