常见激活函数

softmax

import torch.nn.functional as F
F.softmax(x, dim=)

σ(zi)=eziΣj=1Kezj

  • 它可以将一个具有任意实数范围的向量归一化为一个概率分布,使得向量中的每一个元素都变成了 [0,1] 范围内的值,并且所有元素的和为 1,
  • 为了防止溢出,一般分数上下同时除以 eM,M=max(zi), 变成了σ(zi)=eziMΣj=1KezjM
  • 相当于将原来的比值,修改为e次后的比值,会将大数字与小数字之间的差距进一步拉大。
  • 相加起来和为1.

sigmoid

import torch.nn as nn
nn.Sigmoid()

f(x)=11+ex

  • 激活函数,分母大于1,所以激活为0到1的一个数字,且越靠近两端,增长率越慢

tanh

import torch.nn as nn
nn.Tanh()

f(x)=exexex+ex

  • 激活函数,它的输出范围为[-1,1],输入小于0时逼近于-1,输入大于0时逼近于1
posted @   jaskso  阅读(6)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~
点击右上角即可分享
微信分享提示