影醉阏轩窗

衣带渐宽终不悔,为伊消得人憔悴。
扩大
缩小
上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 20 下一页

2017年11月19日

Linux系统及常用软件的安装

摘要: 注释:看了很多人说在Windows下面跑机器学习就和大人一直用勺子吃饭一样,应该用更。。。刚写到这里Linux又奔溃了~~ 以后就在Linux上跑程序了,告别Windows的时代。。。 别看下面的安装都很简单,遇到一个问题够你弄半天!!! 1.安装Ubuntu 完全抄袭网上大神的:http://bl 阅读全文

posted @ 2017-11-19 19:41 影醉阏轩窗 阅读(505) 评论(0) 推荐(1) 编辑

2017年11月18日

信息熵的概念

摘要: 注释:《机器学习实战》这本书说到香农熵,查了两个小时弄明白了。 信息熵有两种通俗解释: 1.代表信息的有用程度,越有用信息熵越大,负数是不可能的,我说句话不影响别人也可以影响我自己啊。 2.代表信息的压缩大小,一段话里面有重复的,把重复的去掉就等于压缩,这个压缩的极限就是信息熵。 看下面两个链接就明 阅读全文

posted @ 2017-11-18 21:38 影醉阏轩窗 阅读(954) 评论(0) 推荐(0) 编辑

2017年11月17日

《机器学习实战》KNN算法实现

摘要: 本系列都是参考《机器学习实战》这本书,只对学习过程一个记录,不做详细的描述! 注释:看了一段时间Ng的机器学习视频,感觉不能光看不练,现在一边练习再一边去学习理论! KNN很早就之前就看过也记录过,在此不做更多说明,这是k-means之前的记录,感觉差不多:http://www.cnblogs.co 阅读全文

posted @ 2017-11-17 20:07 影醉阏轩窗 阅读(603) 评论(0) 推荐(0) 编辑

2017年11月14日

Basler和Matrox的配置及调试

摘要: 说明: 本系列博文是我自己研究生课题,采用做一步记录一步,在论文答辩结束或者机器设计结束之后才会附上源代码! 自从装好相机和设计好机械结构之后就没有继续进行下一步,这段时间花了三四天继续上次任务进行,建议使用线阵相机做项目的人一口气做完,不然断断续续又忘记了。 上篇博文说到了Basler和Matro 阅读全文

posted @ 2017-11-14 21:25 影醉阏轩窗 阅读(3514) 评论(3) 推荐(2) 编辑

2017年11月11日

StanFord ML 笔记 第十部分

摘要: 第十部分: 1.PCA降维 2.LDA 注释:一直看理论感觉坚持不了,现在进行《机器学习实战》的边写代码边看理论 阅读全文

posted @ 2017-11-11 14:15 影醉阏轩窗 阅读(160) 评论(0) 推荐(0) 编辑

2017年11月10日

StanFord ML 笔记 第九部分

摘要: 第九部分: 1.高斯混合模型 2.EM算法的认知 1.高斯混合模型 之前博文已经说明:http://www.cnblogs.com/wjy-lulu/p/7009038.html 2.EM算法的认知 2.1理论知识之前已经说明:http://www.cnblogs.com/wjy-lulu/p/70 阅读全文

posted @ 2017-11-10 16:31 影醉阏轩窗 阅读(441) 评论(0) 推荐(0) 编辑

2017年11月4日

凸优化&非凸优化问题

摘要: 转载知乎大神的回答:Robin Shen 参考:https://www.zhihu.com/question/20343349 阅读全文

posted @ 2017-11-04 18:55 影醉阏轩窗 阅读(405) 评论(0) 推荐(0) 编辑

一些误差的概念

摘要: 训练误差 训练得出的的误差,比如训练1000个样本得出的误差是0.01,训练500个样本得出的误差是0.02。一般在程序里当做训练终止的条件,例如do while(|R1-R2|<0.01){ do something } 泛化误差 训练好模型之后测试的误差,比如训练一个y=kx+b的模型了,现在去 阅读全文

posted @ 2017-11-04 02:11 影醉阏轩窗 阅读(230) 评论(0) 推荐(0) 编辑

StanFord ML 笔记 第八部分

摘要: 第八部分内容: 1.正则化Regularization 2.在线学习(Online Learning) 3.ML 经验 1.正则化Regularization 1.1通俗解释 引用知乎作者:刑无刀 解释之前,先说明这样做的目的:如果一个模型我们只打算对现有数据用一次就不再用了,那么正则化没必要了,因 阅读全文

posted @ 2017-11-04 01:38 影醉阏轩窗 阅读(202) 评论(0) 推荐(0) 编辑

2017年11月3日

StanFord ML 笔记 第六部分&&第七部分

摘要: 第六部分内容: 1.偏差/方差(Bias/variance) 2.经验风险最小化(Empirical Risk Minization,ERM) 3.联合界(Union bound) 4.一致收敛(Uniform Convergence) 第七部分内容: 1. VC 维 2.模型选择(Model Se 阅读全文

posted @ 2017-11-03 21:36 影醉阏轩窗 阅读(322) 评论(0) 推荐(0) 编辑

上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 20 下一页

导航

/* 线条鼠标集合 */ /* 鼠标点击求赞文字特效 */ //带头像评论