tensorflow学习005——多层感知器(神经网络)与激活函数

之前学习的线性回归模型其实是单个神经元:计算输入特征的加权和,然后使用一个激活函数计算输出。上面的线性回归实际并没有涉及激活函数,直接将结果输出了。
单个神经元进行二分类,如图2-5所示

image
图2-5
x1,x2,x3是一个数据的输入,w1,w2,w3是权重,b是偏置,最后输出以恶搞分类结果
多个神经元进行多酚类,如图2-6所示
image
图2-6
上面这两种都是属于单层网络,其缺陷是无法拟合“异或”运算。
神经元要求数据必须是线性可分的
生物的神经元一层一层连接起来,当神经信号达到某一个条件,这个神经元就会激活,然后继续传递信息下取。为了继续使用神经网络解决这种不具备线性可分性的问题,采取在神经网络的输入端和输出端之间插入更多的神经元,如图2-7所示。
image
图2-7
激活函数就是将线性转化为非线性

常见的激活函数
1:Relu() 如图2-8所示。是Relu()激活函数,当x小于0,结果为0;当x大于0,原样输出
image
图2-8
2:sigmoid将结果限制在了0到1之间,很少用于中间层。
image
图2-9
3:tanh激活函数,输出范围在-1到1之间。
image
图2-10
4:Leak relu
image
图2-11

posted @ 2021-11-14 11:41  白菜茄子  阅读(100)  评论(0编辑  收藏  举报