随笔分类 - 机器学习
摘要:Exercise 4: Logistic Regression and Newton’s Method 回顾一下线性回归 hθ(x)=θTx Logistic Regression hθ(x)=11+e−θTx=p{y=1|x;θ} cost(hθ(x),y)的选择 cost(hθ(x),y)=−l
阅读全文
摘要:Exercise 3: Multivariate Linear Regression 预处理数据 Preprocessing the inputs will significantly increase gradient descent’s efficiency Matlab代码 Normal eq
阅读全文
摘要:Exercise 2: Linear Regression 话说LaTex用起来好爽 Matlab代码 迭代并且画出拟合曲线 Linear regression 公式如下 hθ(x)=θTx=∑i=0nθixi (i是代表x的个数) batch gradient descent update rul
阅读全文
摘要:最近在看《Neural Network Design_Hagan》 然后想自己实现一个XOR 的网络。 由于单层神经网络不能将异或的判定分为两类。 根据 a^b=(a&~b)|(~a&b) 而 我试了一下 或 和 与 都可以用感知神经元解决,也就是一个。 那么与和或的实现: hardlim (n )
阅读全文