Lv.的博客
上一页 1 ··· 17 18 19 20 21 22 23 24 25 ··· 190 下一页
摘要: anaconda是优秀的python发行版,集成了各种常用的数据分析库,以下对anaconda常用功能进行总结。 查看anaconda虚拟环境 conda env list # 或者 conda info -e 创建一个新的虚拟环境 conda create -n env_name python=v 阅读全文
posted @ 2020-01-10 09:37 Avatarx 阅读(2384) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-01-10 09:27 Avatarx 阅读(97) 评论(0) 推荐(0) 编辑
摘要: 深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下 阅读全文
posted @ 2020-01-10 09:20 Avatarx 阅读(786) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/mashuai720/article/details/83342264 使用 bat 脚本实现 mysql 数据库自动备份数据 背景为了预防 阅读全文
posted @ 2019-11-16 20:42 Avatarx 阅读(236) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/owenfy/article/details/80022586 阅读全文
posted @ 2019-11-16 09:35 Avatarx 阅读(240) 评论(0) 推荐(0) 编辑
摘要: 通过Photoshop的拾色器,我们知道表征颜色的模型的不止一种,本文将系统并且详细讨论这四种模型(HSV、LAB、RGB和CMYK)之间的联系以及应用。本文部分章节整合了多位优秀博主的博客(链接见本文末尾),并对其表示感谢。文章中模型转换使用的是C式伪代码而不是数学公式,这样更便于编程人士理解。 阅读全文
posted @ 2019-11-15 11:11 Avatarx 阅读(1516) 评论(0) 推荐(0) 编辑
摘要: 卷积神经网络的不变性 不变性的实现主要靠两点:大量数据(各种数据);网络结构(pooling)不变性的类型 1)平移不变性 卷积神经网络最初引入局部连接和空间共享,就是为了满足平移不变性。 关于CNN中的平移不变性的来源有多种假设。 一个想法是平移不变性是由于连续卷积层中神经元的感受野尺寸增加。另一 阅读全文
posted @ 2019-11-15 10:50 Avatarx 阅读(368) 评论(0) 推荐(0) 编辑
摘要: 调用static_rnn实际上是生成了rnn按时间序列展开之后的图。打开tensorboard你会看到sequence_length个rnn_cell stack在一起,只不过这些cell是share weight的。因此,sequence_length就和图的拓扑结构绑定在了一起,因此也就限制了每 阅读全文
posted @ 2019-11-15 10:43 Avatarx 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/program_developer/article/details/80737724 “微信公众号” 本文同步更新在我的微信公众号里,地址: 阅读全文
posted @ 2019-11-15 10:32 Avatarx 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 之前在几篇博客中说到了权重共享,但都觉得不够全面,这里做个专题,以后有新的理解都在此更新。 1. 减少运算只是锦上添花之前说到权重共享可以减少运算,是的,但这样说好像是可有可无,只是运算量大小的问题,其实不是可有可无的。 2. 权重共享的本质是特征提取之前说到权重就是模板,我们按照一定的模板来与样本 阅读全文
posted @ 2019-11-15 09:25 Avatarx 阅读(563) 评论(0) 推荐(0) 编辑
上一页 1 ··· 17 18 19 20 21 22 23 24 25 ··· 190 下一页