关于深度学习的概念理解(笔记)

tensor:张量,可以理解为矩阵

torch.rand(batsh_size,chanel,w,h)

batsh_size:一次性能处理的数量

channel:通道数,比如一般的图像为RGB 三通道,灰度图像则只有灰度值,也就是单通道1

w,h:张量的长和宽

nn.moudule:神经网络

包含有forward类函数,

包含有卷积层,池化层等等。

卷积层:

来自百度百科的解释:

卷积神经网络中每层卷积层(Convolutional layer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网路能从低级特征中迭代提取更复杂的特征。

作用:类似于滤波器(选频,降噪),提取图像特征

卷积核:系统自动给定的的初始化值,卷积核的大小是自己设定,接受元组或是整形输入,比如3x3的卷积核,卷积的操作是把卷积核的值一个个与输入值相乘再累加,以此得到输出,输出的长和宽不仅取决于输入和卷积核还收step(步长)影响,步长指的是卷积核做卷积操作时向右相下移动的步数。

池化层:

作用:抽象,降维,类似于把1080p的视频变成720p,减低训练时间。

线性层:

作用:变换特征维度

非线性变换:为网络中引入非线性特征,非线性越多,才能训练出拟合各种曲线的模型。

根据loss获得梯度从而进行反向传播进行优化

posted @   昊月光华  阅读(5)  评论(0编辑  收藏  举报  
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
点击右上角即可分享
微信分享提示