上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 33 下一页
摘要: redis在数据满足一定要求的情况下,会将数据在内部用压缩列表(ziplist)的形式存储,与直接使用双向链表存储相比,这样可以大大降低内存占用。 压缩列表:每存储一个字符串需要两个整数,和字符串本身,其中两个整数一个记录前一个节点的长度,另一个记录当前节点的长度。 双向链表:每存储一个字符串,需要 阅读全文
posted @ 2018-01-11 11:28 Go_Forward 阅读(257) 评论(0) 推荐(0) 编辑
摘要: 1. 梯度下降, tf.train.GradientDescentOptimizer(0.05),梯度下降的问题在与不一定能获得全局最优解,并且因为要在所有数据上最小化损失,所以损失函数是在所有训练数据上的损失和,所以在大数据情况下,需要的时间相当长。 2.随机梯度下降,随机梯度下降优化的不是全部数 阅读全文
posted @ 2018-01-09 21:52 Go_Forward 阅读(1417) 评论(0) 推荐(0) 编辑
摘要: 1. L2范数损失函数,也叫欧几里得损失函数,实际上是预测值到目标的距离的平方,tensorflow中用法:tf.nn.l2_loss(),这个损失函数的优点在于曲线在接近目标时足够平缓,所以可以利用这个特点在接近目标时,逐渐缓慢收敛过去。这个损失函数一般用在回归问题。 2. L1范数损失函数,采用 阅读全文
posted @ 2018-01-09 21:32 Go_Forward 阅读(3036) 评论(0) 推荐(0) 编辑
摘要: 修改分区个数: 上面命令将test_topic对应的分区数目调整为10个,127.0.0.1是zookeeper的地址,2181是zookeeper端口。 删除topic 上面命令将主题test_topic标记为删除,但是如果delete.topic.enable没有配置为True,上述命令无效。 阅读全文
posted @ 2018-01-09 15:04 Go_Forward 阅读(3148) 评论(0) 推荐(0) 编辑
摘要: def foo(x): def bar(y): return x + y return bar if __name__ == "__main__": f = foo(1) f(100) # output # >>>101 eg.1 #!/usr/bin/python # -*- coding: ut 阅读全文
posted @ 2018-01-08 17:56 Go_Forward 阅读(138) 评论(0) 推荐(0) 编辑
摘要: 如果想自定义一个类或者函数使用with语句,除了在类中自己定义__enter__()方法和__exit__()方法外,还可以使用contextmananger装饰器。 contextmananger装饰器将yield之前的部分当做__enter__()方法,将yield之后的部分当做__exit__ 阅读全文
posted @ 2018-01-08 17:37 Go_Forward 阅读(199) 评论(0) 推荐(0) 编辑
摘要: Boosting:学习器之间存在强依赖关系,必须串行生成的序列化方法。 Bagging,随机森林:学习器之间不存在强依赖关系,可以同事生成的并行化方法。 Boosting主要关注降低偏差,Bagging主要关注减低方差。 Boosting:先前基学习器做错的训练样本在后续收到更多关注,然后基于调整后 阅读全文
posted @ 2018-01-08 16:17 Go_Forward 阅读(132) 评论(0) 推荐(0) 编辑
摘要: 在我们遇到核函数之前,如果用原始的方法,那么在用线性学习器学习一个非线性关系,需要选择一个非线性特征集,并且将数据写成新的表达形式,这等价于应用一个固定的非线性映射,将数据映射到特征空间,在特征空间中使用线性学习器。 笔记from: http://blog.csdn.net/v_july_v/art 阅读全文
posted @ 2018-01-05 21:26 Go_Forward 阅读(111) 评论(0) 推荐(0) 编辑
摘要: 具有单隐层的前馈神经网络可以表示任何函数,但是网络参数可能大的不能实现,并且可能无法正确学习和泛化,很多情况下,使用更深的而模型能够减少表示期望函数所需的单元函数,增加拥有激活函数的神经元数目,增加激活函数嵌套的层数并且可以减少泛化误差。 阅读全文
posted @ 2018-01-05 20:50 Go_Forward 阅读(230) 评论(0) 推荐(0) 编辑
摘要: 1.采用不同的初始值多个不同神经网络,按标注方法训练后,取误差最小的参数,才用不同的初始值以为这从不同的路径进行梯度下降,从而不会陷入特定的局部极小,再在这些值中选择,会选取到更接近全局极小的参数。 2.采用模拟退火,每一步以一定概率接受比当前更差的结果,从而有可能跳出局部极小,但是也有可能跳出全局 阅读全文
posted @ 2018-01-05 18:07 Go_Forward 阅读(409) 评论(0) 推荐(1) 编辑
上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 33 下一页