Fork me on GitHub
摘要: 最小二乘拟合直线方程:y=ax+b,就是线性回归。(n代表样本数量)。误差函数为: e=∑(yi-axi-b)^2,各偏导为: de/da=-2∑(yi-axi-b)xi=0de/db=-2∑(yi-axi-b)=0 于是得到关于a,b的线性方程组: ∑(xi^2)*a+(∑xi)*b=∑yixi( 阅读全文
posted @ 2016-03-30 18:50 wangduo 阅读(657) 评论(0) 推荐(0) 编辑
摘要: 发论文: 1.能不能省几步,能不能更简单,能不能更智能; 2.加强容错性; 3.安全与隐私; 4.是不是绿色,能耗能不能更少; 5.融合,不同领域的结合点; 一定要合作,要团队。 阅读全文
posted @ 2016-03-30 18:04 wangduo 阅读(196) 评论(0) 推荐(0) 编辑
摘要: 版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。 前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机 阅读全文
posted @ 2016-03-30 16:36 wangduo 阅读(294) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为博主原创文章,未经博主允许不得转载。 版权声明:本文为博主原创文章,未经博主允许不得转载。 Deep Learning(深度学习)学习笔记整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 201 阅读全文
posted @ 2016-03-30 15:59 wangduo 阅读(905) 评论(0) 推荐(0) 编辑
摘要: 转自:http://blog.csdn.net/v_july_v/article/details/7624837 支持向量机通俗导论(理解SVM的三层境界)前言 动笔写这个支持向量机(support vector machine)是费了不少劲和困难的,原因很简单,一者这个东西本身就并不好懂,要深入学 阅读全文
posted @ 2016-03-30 15:44 wangduo 阅读(36127) 评论(0) 推荐(1) 编辑
摘要: 编者按:本文作者王川,投资人,中科大少年班校友,现居加州硅谷,个人微信号9935070,36 氪36氪经授权转载自其个人微信公众号 investguru。 一 2016 年一月底,人工智能的研究领域,发生了两件大事。 先是一月二十四号,MIT 的教授,人工智能研究的先驱者,Marvin Minsky 阅读全文
posted @ 2016-03-30 15:27 wangduo 阅读(1818) 评论(1) 推荐(1) 编辑