08 2020 档案
摘要:我对卷积神经网络(CNN)的理解(包含例子) Introduce 卷积神经网络(convolutional neural networks),简称CNN。卷积神经网络相比于人工神经网络而言更适合于图像识别、语音识别等任务。本文主要涉及卷积神经网络的概念介绍,首先介绍卷积神经网络相比于人工神经网络的优
阅读全文
摘要:神经网络中常用的激活函数 Introduce 理论上神经网络能够拟合任意线性函数,其中主要的一个因素是使用了非线性激活函数(因为如果每一层都是线性变换,那有啥用啊,始终能够拟合的都是线性函数啊)。本文主要介绍神经网络中各种常用的激活函数。 以下均为个人学习笔记,若有错误望指出。 各种常用的激活函数
阅读全文
摘要:深度学习 (DeepLearning) 基础 [4] 欠拟合、过拟合与正则化 Introduce 在上一篇“深度学习 (DeepLearning) 基础 [3] 梯度下降法”中我们介绍了梯度下降的主要思想以及优化算法。本文将继续学习深度学习的基础知识,主要涉及: 欠拟合和过拟合 正则化 以下均为个人
阅读全文
摘要:深度学习 (DeepLearning) 基础 [3] 梯度下降法 Introduce 在上一篇“深度学习 (DeepLearning) 基础 [2] 神经网络常用的损失函数”中我们介绍了神经网络常用的损失函数。本文将继续学习深度学习的基础知识,主要涉及基于梯度下降的一类优化算法。首先介绍梯度下降法的
阅读全文
摘要:深度学习 (DeepLearning) 基础 [2] 神经网络常用的损失函数 Introduce 在上一篇“深度学习 (DeepLearning) 基础 [1] 监督学习和无监督学习”中我们介绍了监督学习和无监督学习相关概念。本文主要介绍神经网络常用的损失函数。 以下均为个人学习笔记,若有错误望指出
阅读全文
摘要:深度学习 (DeepLearning) 基础 [1] 监督学习与无监督学习 Introduce 学习了Pytorch基础之后,在利用Pytorch搭建各种神经网络模型解决问题之前,我们需要了解深度学习的一些基础知识。本文主要介绍监督学习和无监督学习。 以下均为个人学习笔记,若有错误望指出。 监督学习
阅读全文
摘要:使用pytorch快速搭建神经网络实现二分类任务(包含示例) Introduce 上一篇学习笔记介绍了不使用pytorch包装好的神经网络框架实现logistic回归模型,并且根据autograd实现了神经网络参数更新。 本文介绍利用pytorch快速搭建神经网络。即利用torch.nn以及torc
阅读全文
摘要:Pytorch Autograd (自动求导机制) Introduce Pytorch Autograd库 (自动求导机制) 是训练神经网络时,反向误差传播(BP)算法的核心。 本文通过logistic回归模型来介绍Pytorch的自动求导机制。首先,本文介绍了tensor与求导相关的属性。其次,通
阅读全文