上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 20 下一页
摘要: sed notes 阅读全文
posted @ 2020-01-21 20:26 山竹小果 阅读(158) 评论(0) 推荐(0) 编辑
摘要: awk notes 阅读全文
posted @ 2020-01-21 18:31 山竹小果 阅读(241) 评论(0) 推荐(0) 编辑
摘要: 本文简要介绍了置信区间这一核心概念,它有助于我们从直观上理解评价估计优劣的度量方法。 假设你想知道美国有多少人热爱足球。为了得到 100% 正确的答案,你可以做的唯一一件事是向美国的每一位公民询问他们是否热爱足球。根据维基百科,美国有超过 3.25 亿的人口。与 3.25 亿人谈话并不现实,因此我们 阅读全文
posted @ 2020-01-16 16:54 山竹小果 阅读(798) 评论(0) 推荐(0) 编辑
摘要: import matplotlib.pyplot as plt import numpy as np x_ticks = ("Thing 1", "Thing 2", "Other thing", "Yet another thing") x_1 = np.arange(1, 5) x_2 = x_ 阅读全文
posted @ 2020-01-16 15:11 山竹小果 阅读(3288) 评论(0) 推荐(0) 编辑
摘要: Baggging 和Boosting都是模型融合/集成学习的方法,可以将弱分类器融合之后形成一个强分类器,而且融合之后的效果会比最好的弱分类器更好。 Bagging Bagging即套袋法,其算法过程如下: 从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping的方法抽取n个训练样 阅读全文
posted @ 2020-01-15 20:37 山竹小果 阅读(303) 评论(0) 推荐(0) 编辑
摘要: 概念 偏差: 描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据集。 (假设靶心是最适合给定数据的模型,离靶心越远,我们的预测就越糟糕) 方差: 描述的是预测值的变化范围,离散程度,也就是离其期望值的距离。方差越大,预测结果数据的分布越散。 基于偏差的误差: 模型预期的预测与 阅读全文
posted @ 2020-01-15 20:09 山竹小果 阅读(833) 评论(0) 推荐(1) 编辑
摘要: 几种batch normalization的扩展:简述与比较 阅读全文
posted @ 2020-01-11 21:23 山竹小果 阅读(2077) 评论(0) 推荐(0) 编辑
摘要: 论文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift Internal Covariate Shift 深度神经网络涉及到很多层的叠加,而每一层的参数更新会导致上 阅读全文
posted @ 2020-01-11 20:38 山竹小果 阅读(3900) 评论(0) 推荐(0) 编辑
摘要: 简介 对于文本风格迁移,先举个例子: Input:谢谢 Output(金庸): 多谢之至 Input: 再见 Output(金庸): 别过! Input:请问您贵性? Output(金庸): 请教阁下尊姓大名? 再泼个冷水: 目前自然语言生成(NLG)领域的研究还不太实用,所以希望像人一样先理解句子 阅读全文
posted @ 2020-01-10 15:49 山竹小果 阅读(6467) 评论(1) 推荐(1) 编辑
摘要: 定义 以二分类问题为例,假设我们的数据集是S,数据集中的多数类为S_maj,少数类为S_min,通常情况下把多数类样本的比例为100:1,1000:1,甚至是10000:1,这种情况下为不平衡数据,不平衡数据的学习即需要在如此分布不均匀的数据集中学习到有用的信息。 问题:不均衡的数据理解预测起来很简 阅读全文
posted @ 2020-01-08 11:48 山竹小果 阅读(932) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 20 下一页