上一页 1 ··· 26 27 28 29 30 31 32 33 34 ··· 50 下一页
摘要: 1、相关知识 从广义上来说,NN(或是更美的DNN)确实可以认为包含了CNN、RNN这些具体的变种形式。有很多人认为,它们并没有可比性,或是根本没必要放在一起比较。在实际应用中,所谓的深度神经网络DNN,往往融合了多种已知的结构,包括convolution layer 或是 LSTM 单元。其实,如 阅读全文
posted @ 2019-08-23 15:59 你的雷哥 阅读(10090) 评论(1) 推荐(1) 编辑
摘要: 莫烦视频网址 这个代码实现了预测和可视化 1 import os 2 3 # third-party library 4 import torch 5 import torch.nn as nn 6 import torch.utils.data as Data 7 import torchvisi 阅读全文
posted @ 2019-08-23 14:53 你的雷哥 阅读(1199) 评论(0) 推荐(0) 编辑
摘要: 网上看到的关于卷积神经网络总结比较好的文章 链接如下:https://blog.csdn.net/sinat_34328764/article/details/84192303 阅读全文
posted @ 2019-08-23 12:48 你的雷哥 阅读(252) 评论(0) 推荐(0) 编辑
摘要: 各种优化器的比较 莫烦的对各种优化通俗理解的视频 阅读全文
posted @ 2019-08-23 09:27 你的雷哥 阅读(2443) 评论(0) 推荐(0) 编辑
摘要: 1.要点 Torch 中提供了一种帮你整理你的数据结构的好东西, 叫做 DataLoader, 我们能用它来包装自己的数据, 进行批训练. 而且批训练可以有很多种途径。 2.DataLoader DataLoader 是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy ar 阅读全文
posted @ 2019-08-17 22:01 你的雷哥 阅读(1080) 评论(0) 推荐(0) 编辑
摘要: 结果和莫烦的不一样,但是找不到问题的所在,,。。。 阅读全文
posted @ 2019-08-17 21:21 你的雷哥 阅读(375) 评论(0) 推荐(0) 编辑
摘要: 下面的是一个比较快搭建神经网络的代码,在上面的代码进行修改,代码如下 阅读全文
posted @ 2019-08-17 18:48 你的雷哥 阅读(519) 评论(0) 推荐(0) 编辑
摘要: 下面的代码说明个整个神经网络模拟回归的过程,代码含有详细注释,直接贴下来了 阅读全文
posted @ 2019-08-17 17:26 你的雷哥 阅读(345) 评论(0) 推荐(0) 编辑
摘要: 以下面例子作为面向对象基础介绍,类比java里的面向对象既可以,大同小异 子类dog,cat继承动物animal,子类继承父类所有属性,并可以重写父类方法,并可以有自己的方法。 对于Python的私有类属性不可以修改,但可以通过方法来实现对私有属性的控制。 具体详解可参考这位博文:https://w 阅读全文
posted @ 2019-08-16 21:49 你的雷哥 阅读(436) 评论(0) 推荐(0) 编辑
摘要: 1. sigmod函数 函数公式和图表如下图 在sigmod函数中我们可以看到,其输出是在(0,1)这个开区间内,这点很有意思,可以联想到概率,但是严格意义上讲,不要当成概率。sigmod函数曾经是比较流行的,它可以想象成一个神经元的放电率,在中间斜率比较大的地方是神经元的敏感区,在两边斜率很平缓的 阅读全文
posted @ 2019-08-16 15:52 你的雷哥 阅读(1589) 评论(0) 推荐(0) 编辑
上一页 1 ··· 26 27 28 29 30 31 32 33 34 ··· 50 下一页