随笔分类 -  机器学习

摘要:Exercise 4: Logistic Regression and Newton’s Method 回顾一下线性回归 hθ(x)=θTx Logistic Regression hθ(x)=11+e−θTx=p{y=1|x;θ} cost(hθ(x),y)的选择 cost(hθ(x),y)=−l 阅读全文
posted @ 2015-12-25 15:00 一杯半盏 阅读(244) 评论(0) 推荐(0) 编辑
摘要:Exercise 3: Multivariate Linear Regression 预处理数据 Preprocessing the inputs will significantly increase gradient descent’s efficiency Matlab代码 Normal eq 阅读全文
posted @ 2015-12-21 17:08 一杯半盏 阅读(130) 评论(0) 推荐(0) 编辑
摘要:Exercise 2: Linear Regression 话说LaTex用起来好爽 Matlab代码 迭代并且画出拟合曲线 Linear regression 公式如下 hθ(x)=θTx=∑i=0nθixi (i是代表x的个数) batch gradient descent update rul 阅读全文
posted @ 2015-12-17 18:32 一杯半盏 阅读(128) 评论(0) 推荐(0) 编辑
摘要:最近在看《Neural Network Design_Hagan》 然后想自己实现一个XOR 的网络。 由于单层神经网络不能将异或的判定分为两类。 根据 a^b=(a&~b)|(~a&b) 而 我试了一下 或 和 与 都可以用感知神经元解决,也就是一个。 那么与和或的实现: hardlim (n ) 阅读全文
posted @ 2015-08-07 21:38 一杯半盏 阅读(642) 评论(0) 推荐(0) 编辑