另辟新径:用数学极限推导神经网络中的激活函数
一、数学先验知识:
二、激活函数推导
a)、Relu
b)、Leaky Relu
Leaky ReLU只是对ReLU的x负半轴部分添加一个很小的斜率,规避神经元死完这个问题
c)、ELU
用公式(1-1)中e^x-1代替Leaky Relu 中x<0时的x,则有
d)、其他激活函数[1]
对这个式子进行化简,看看其等价于什么?当然,前提默认是在当𝑥→0的条件下:
e)、扩展:
其他相关等价无穷小:(当x→0时)
sinx~x
ln(1+x)~x
tanx~x
[(1+x)]^a-1~ax
三、创建激活函数
首先我们看ELU的激活函数公式:
再结合先验公式(1-2):,故将上述a(e^x-1)中的e进行替换,得到等价公式如:
四、实验结果
基于ImageNet数据集使用VGG19,使用上面新创建的激活函数代替VGG19中的ReLU函数后,训练500个epcoh,准确率97.7%,竟然的Relu的97%还要高点
难道这就是创建激活函数的规律。。。。
[1]李宏亮, 程起上. 一种可形变激活函数的改进方法,系统及存储设备:, 2018.
作为一枚技术小白,写这篇笔记的时候参考了很多博客论文,在这里表示感谢,同时,未经同意,请勿转载....
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 零经验选手,Compose 一天开发一款小游戏!
· 通过 API 将Deepseek响应流式内容输出到前端
· 因为Apifox不支持离线,我果断选择了Apipost!