【学习笔记】logistic回归与神经元模型
【参考】
http://www.cyzuo.cn/index.php/archives/45/
【定义】
二分类问题:判断是或否的情况,比如判定图片是猫或是非猫
【涉及符号及意义】
样本:( x , y ) ,一般数量为m个,x一般表示为一个n维向量,y 为 1 或 0 ,报是目标值属于0,1分类
训练集(样本集):作为训练模型中参数的训练数据,使用 x ( i ) 表示第 i 个样本
【神经元模型】
可以看作一个拥有 多个输入和一个输出的黑箱,在黑箱中进行一系列操作,并且根据一些反馈对黑箱内部进行调整,进行某些运算,最终实现回归。
首先明确目标,我们是想通过训练集得到,在输入一个 x 时,我们能够知道他是 0 还是 1,
而如果让神经元输出结果为0 或 1 这样的值的话,不利于我们迭代优化回归模型(原因?因为0,1会损失精度?)
所以这里我们实际上需要求取的是, y 取 1 的概率
【Sigmoid 函数】
前向传播:输入信号一层一层传递到下面的神经元
将当前输入的训练集和当前的参数进行运算,得到一定结果
反向传播:输入和代价函数做以比较之后,作为得到的信息返回到前置结点,从而影响前面神经元中的参数
【Loss函数】
代价函数:样本误差相对个训练集误差
【梯度下降法】
每次根据Loss函数,找到影响最大的参数,参数下降的最快的方向,对参数进行操作
以保证在尽量少的传播过程中,将Loss函数降到最低
【向量化】
将矩阵向量化,使得能够和权重矩阵进行计算