2017年9月5日

logistic损失函数的解释

摘要: logistic回归的 P(y|x):预期输出为y时,输入为x的概率为p(y|x)=y~^y(1-y~)^(1-y) 全面概括y=0|1的情况 loss function()= - log(p(y|x)); 可以根据loss function定义得到结果。 J(w,b)=-1/m求和loss >求它 阅读全文

posted @ 2017-09-05 23:09 flyingwaters 阅读(1000) 评论(0) 推荐(0) 编辑

最大似然估计的复习(转)

摘要: 转自:http://blog.csdn.net/yanqingan/article/details/6125812 最大似然估计学习总结 MadTurtle 1. 作用 在已知试验结果(即是样本)的情况下,用来估计满足这些样本分布的参数,把可能性最大的那个参数作为真实的参数估计。 2. 离散型 设为 阅读全文

posted @ 2017-09-05 22:34 flyingwaters 阅读(299) 评论(0) 推荐(0) 编辑

吴恩达deep learning笔记2

摘要: *** *使用y~的作用在二分分类算法中,使用的规则如下,y~为y=1的概率,越接近一也就是预想结果,这里假定了预想结果为1. **若假定结果为0,则P(y|x)-1-y~,这里的为假定的结果。 阅读全文

posted @ 2017-09-05 11:09 flyingwaters 阅读(229) 评论(0) 推荐(0) 编辑

MArkdown使用转

摘要: 一.认识 Markdown 在刚才的导语里提到,Markdown 是一种用来写作的轻量级「标记语言」,它用简洁的语法代替排版,而不像一般我们用的字处理软件 Word 或 Pages 有大量的排版、字体设置。它使我们专心于码字,用「标记」语法,来代替常见的排版格式。例如此文从内容到格式,甚至插图,键盘 阅读全文

posted @ 2017-09-05 10:56 flyingwaters 阅读(104) 评论(0) 推荐(0) 编辑

吴恩达deep learning笔记。

摘要: numpy中neural network programing时 设置数组时使用a = np.random.randn(5,1) otherwise np.random.randn(5)这种形式因为这是一组数组转置后不明显内积后为一个数不会生成方阵? python中的广播允许vector+R来进行这 阅读全文

posted @ 2017-09-05 10:14 flyingwaters 阅读(142) 评论(0) 推荐(0) 编辑

导航