李宏毅机器学习之逻辑回归笔记

李宏毅机器学习之逻辑回归笔记

第一步--定义函数集

x 和 w 都是向量,可以从朴素贝叶斯推出来这个公式


)

第二步--定义函数的好坏

假设每个样本都是基于$$f_{w, b}(x)=P_{w, b}\left(C_{1} \mid x\right)$$ 该函数,所以可以得到训练数据的可能性函数,使之最大的参数就是最好的参数。


)

将函数取log,并且转化为求最小值的问题,将c1,c2换为取值为0,1的y1, y2


)

经过转换得到两个变量的交叉熵公式,也可以理解为损失函数,将其最小值最为优化的目标


)

第三步--找到最好的函数

对损失函数求导,得到变形


)

对 w 求偏导


)

逻辑回归和线性回归的对比


)

Discriminative v.s. Generative

采用概率模型找到\(\mu\) 和 协方差的方法称为生成法,通过逻辑回归直接找到w 和 b的方法称为discriminative,


)

Multi-class Classification


)

posted @ 2020-08-31 12:53  N.S.A  阅读(252)  评论(0编辑  收藏  举报