《PyTorch深度学习》笔记(2)

1、某些代码的含义

torch.rand()

返回一个张量,包含了从区间[0, 1)的均匀分布中抽取的一组随机数。

输入
x = torch.rand(2,3)
print(x)
输出:
tensor([[0.0118, 0.2275, 0.2665],
        [0.8676, 0.2364, 0.4470]])

Process finished with exit code 0

torch.randn()

返回一个张量,包含了从标准正态分布(均值为0,方差为1,即高斯白噪声)中抽取的一组随机数

输入:
x = torch.rand(2, 3)
print(x)
输出(里面是0~1的随机数的2*3的张量):
tensor([[0.4980, 0.0778, 0.3957],
        [0.4589, 0.3789, 0.9305]])

Process finished with exit code 0

  • 反向传播是干嘛的?
    用来调整每条线的权值

2、不同的激活函数

2.1、sigmoid(不常用)

缺点:当sigmoid函数的输出值接近于0或者1的时候,simoid函数的前一层的梯度接近于0,这样使得参数不能经常调整,从而产生了无效的神经元

2.2、tanh(比上面的用的稍微多一点)

2.3、ReLU(常用)

  • 优化器更快地找到正确的权重集合,使得随机梯度下降收敛更快
  • 计算成本低,因为只进行了判断
  • 缺点:很大的梯度进行反向传播,会出现无效神经元,所以要谨慎调整学习率

2.4、Leaky ReLU(未知)

要学到1-95页
学习反思:计划要不断调整,因为未知的不同内容的学习速度是不一样的,所以要及时调整每日的学习内容的多少

非线性激活函数

posted @   猪猪猪猪侠  阅读(41)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 25岁的心里话
· 按钮权限的设计及实现
点击右上角即可分享
微信分享提示