神经网络(2)
1.mp神经元
x表示输入(如果是第一层的那么就是数据,第二层的就是第一层输出的值)
w表示权重,是自己给定或者随机初始化的值,后期通过修正让他到一个合理的区间
用阈值θ来描述激活该神经元的难易程度,越大越难激活; 用来计算神经元的兴奋程度;
为激活函数,用来计算神经元的输出;
在MP神经元中,激活函数为阶梯函数。兴奋函数大于阈值输出1,小于阈值输出0;
2.感知机
输入(0,1)例如这个,那么相当于把 0输入给一个,1输入给一个,所以需要两个神经元
的感知机只在输入是 (1,1)的时候激活。如果把0理解为假,1理解为真,那么这个感知机的功能就和与门是一样的,只有两个输入都是真的时候,输出真。而图像上,这个感知机实际上是一条线,把 (1,1)分在一边,其他点分在另一边。
那条线的表示:0.6x1+0.6x2-1
3.多层前反馈神经网络
前馈指的是:由于该网络每层神经元与下一层神经元全互连,同层神经元之间不互连,也不会跨层连接,所以信息只会按照信息只能按照输入—>隐藏—>输出的方向传递,得名前馈。
那么费劲半天,又是多加层神经元,又是寻找理想的激活函数,终于构造出这么个网络,有多牛逼?这些努力值得吗?
非常值,有理论证明,一个具有有限数目神经元的单隐层多层前馈神经网络可以以任意精度逼近任意复杂度的连续函数。换句话说,单隐层神经网络可以学习任意连续函数。如果我们把生活的问题全都理解为函数,中译英其实就是输入中文,输出英文的函数;P图就是输入原图,输出美图的函数;语音识别就是输入语音,输出文字的函数;那么单隐层网络,理论上,可以解决这些问题。有多牛逼?大概就是为所欲为的那种程度的牛逼吧。
4.误差逆传播算法(BF算法)
smartcat.994