关于深度学习的概念理解(笔记)
tensor:张量,可以理解为矩阵
torch.rand(batsh_size,chanel,w,h)
batsh_size:一次性能处理的数量
channel:通道数,比如一般的图像为RGB 三通道,灰度图像则只有灰度值,也就是单通道1
w,h:张量的长和宽
nn.moudule:神经网络
包含有forward类函数,
包含有卷积层,池化层等等。
卷积层:
来自百度百科的解释:
卷积神经网络中每层卷积层(Convolutional layer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网路能从低级特征中迭代提取更复杂的特征。
作用:类似于滤波器(选频,降噪),提取图像特征。
卷积核:系统自动给定的的初始化值,卷积核的大小是自己设定,接受元组或是整形输入,比如3x3的卷积核,卷积的操作是把卷积核的值一个个与输入值相乘再累加,以此得到输出,输出的长和宽不仅取决于输入和卷积核还收step(步长)影响,步长指的是卷积核做卷积操作时向右相下移动的步数。
池化层:
作用:抽象,降维,类似于把1080p的视频变成720p,减低训练时间。
线性层:
作用:变换特征维度
非线性变换:为网络中引入非线性特征,非线性越多,才能训练出拟合各种曲线的模型。
根据loss获得梯度从而进行反向传播进行优化
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?