影醉阏轩窗

衣带渐宽终不悔,为伊消得人憔悴。
扩大
缩小

2017年11月4日

凸优化&非凸优化问题

摘要: 转载知乎大神的回答:Robin Shen 参考:https://www.zhihu.com/question/20343349 阅读全文

posted @ 2017-11-04 18:55 影醉阏轩窗 阅读(405) 评论(0) 推荐(0) 编辑

一些误差的概念

摘要: 训练误差 训练得出的的误差,比如训练1000个样本得出的误差是0.01,训练500个样本得出的误差是0.02。一般在程序里当做训练终止的条件,例如do while(|R1-R2|<0.01){ do something } 泛化误差 训练好模型之后测试的误差,比如训练一个y=kx+b的模型了,现在去 阅读全文

posted @ 2017-11-04 02:11 影醉阏轩窗 阅读(230) 评论(0) 推荐(0) 编辑

StanFord ML 笔记 第八部分

摘要: 第八部分内容: 1.正则化Regularization 2.在线学习(Online Learning) 3.ML 经验 1.正则化Regularization 1.1通俗解释 引用知乎作者:刑无刀 解释之前,先说明这样做的目的:如果一个模型我们只打算对现有数据用一次就不再用了,那么正则化没必要了,因 阅读全文

posted @ 2017-11-04 01:38 影醉阏轩窗 阅读(202) 评论(0) 推荐(0) 编辑

导航

/* 线条鼠标集合 */ /* 鼠标点击求赞文字特效 */ //带头像评论