上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 36 下一页

2019年7月31日

采用IDM(Internet Download Manager)下载超大文件

摘要: 推荐一个下载器。最近要下一个国外网站的数据集,大概10G左右,通过一个链接下载。但是直接在浏览器上下载网速非常慢,几十kb每秒,而且下载一段时间后就断了,又得从头开始下(╭(╯^╰)╮)。 这种情况推荐采用IDM下载器下载,免费试用。文件大小不到8M。 地址:http://www.internetd 阅读全文

posted @ 2019-07-31 12:48 那抹阳光1994 阅读(720) 评论(0) 推荐(0) 编辑

2019年7月30日

什么是95%的置信区间?

摘要: 转自:https://blog.csdn.net/bitcarmanlee/article/details/82709774 阅读全文

posted @ 2019-07-30 10:40 那抹阳光1994 阅读(1033) 评论(0) 推荐(0) 编辑

2019年7月29日

机器学习博客

摘要: 博客推荐 http://codewithzhangyi.com/ 阅读全文

posted @ 2019-07-29 21:50 那抹阳光1994 阅读(118) 评论(0) 推荐(0) 编辑

2019年7月24日

深度自动编码器

摘要: 深度自动编码器由两个对称的深度置信网络组成,其中一个深度置信网络通常有四到五个浅层,构成负责编码的部分,另一个四到五层的网络则是解码部分。 这些层都是受限玻尔兹曼机(RBM)(注:也可以采用自编码器预训练?),即构成深度置信网络的基本单元,它们有一些特殊之处,我们将在下文中介绍。以下是简化的深度自动 阅读全文

posted @ 2019-07-24 23:07 那抹阳光1994 阅读(2556) 评论(0) 推荐(0) 编辑

2019年7月22日

深度神经网络中的权重初始化方法

摘要: 待整理 Xavier-init 阅读全文

posted @ 2019-07-22 23:18 那抹阳光1994 阅读(232) 评论(0) 推荐(0) 编辑

自编码器和去噪自编码器的可视化

摘要: 自编码器和去噪自编码器 Denoising Autoencoders (dA) Autoencoders Denoising Autoencoders Putting it All Together Running the Code Stacked Denoising Autoencoders (S 阅读全文

posted @ 2019-07-22 23:16 那抹阳光1994 阅读(664) 评论(0) 推荐(0) 编辑

深度学习教程网站

摘要: http://deeplearning.net/tutorial/contents.html index next | DeepLearning 0.1 documentation » index next | DeepLearning 0.1 documentation » Contents LI 阅读全文

posted @ 2019-07-22 23:09 那抹阳光1994 阅读(164) 评论(0) 推荐(0) 编辑

2019年7月19日

Notation and Setup

摘要: 阅读全文

posted @ 2019-07-19 14:48 那抹阳光1994 阅读(129) 评论(0) 推荐(0) 编辑

2019年7月18日

Pytorch自定义参数层

摘要: 注意,一般官方接口都带有可导功能,如果你实现的层不具有可导功能,就需要自己实现梯度的反向传递。 阅读全文

posted @ 2019-07-18 16:02 那抹阳光1994 阅读(3074) 评论(0) 推荐(0) 编辑

pytorch BCELoss和BCEWithLogitsLoss

摘要: BCELoss CLASS torch.nn.BCELoss(weight=None, size_average=None, reduce=None, reduction='mean') 创建一个标准来度量目标和输出之间的二进制交叉熵。 unreduced (i.e. with reduction  阅读全文

posted @ 2019-07-18 15:54 那抹阳光1994 阅读(14755) 评论(0) 推荐(0) 编辑

上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 36 下一页

导航