常见激活函数
softmax
import torch.nn.functional as F
F.softmax(x, dim=)
- 它可以将一个具有任意实数范围的向量归一化为一个概率分布,使得向量中的每一个元素都变成了 [0,1] 范围内的值,并且所有元素的和为 1,
- 为了防止溢出,一般分数上下同时除以
, 变成了
- 相当于将原来的比值,修改为e次后的比值,会将大数字与小数字之间的差距进一步拉大。
- 相加起来和为1.
sigmoid
import torch.nn as nn
nn.Sigmoid()
- 激活函数,分母大于1,所以激活为0到1的一个数字,且越靠近两端,增长率越慢
tanh
import torch.nn as nn
nn.Tanh()
- 激活函数,它的输出范围为[-1,1],输入小于0时逼近于-1,输入大于0时逼近于1
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~