随笔分类 - Deep Learning
摘要:##下载Mxnet源码 http://mxnet.incubator.apache.org/install/index.html (使用pip、git失败) 替换FCIS的operator(详见FCIS) ##使用CMake编译 略 ##按照FCIS中setup win cmd中: python s
阅读全文
摘要:对于CUDA 10.1,此配置行不再正确: nvcc_compile_args = ['-O', '--ptxas-options=-v', '-arch=sm_35', '-c', '--compiler-options=-fPIC'] 这将生成一个nvcc编译命令,如下所示: nvcc -O .
阅读全文
摘要:参考:https://www.cnblogs.com/pinard/p/10750718.html ##雅可比矩阵
阅读全文
摘要:参考:https://www.cnblogs.com/pinard/p/6422831.html ##为什么要用到反向传播 我们的目的是得到每一个神经元的w和b。这个参数的获取一般是通过梯度下降算法得到的。因此我们需要设置损失函数,使损失函数到达最小。这个过程就是反向传播算法。 求得损失函数最小那么
阅读全文
摘要:参考:https://www.cnblogs.com/pinard/p/6418668.html ##基本结构 ###局部看 输出和输入之间学习到一个线性关系,得到中间输出结果: 接着是一个神经元激活函数: 也可以是别的激活函数:Sigmoid函数、tanx, softmax,和ReLU等 ###宏
阅读全文