末日搭车指南
面向人生编程

导航

 
上一页 1 ··· 5 6 7 8 9 10 下一页

2020年2月4日

摘要: 阅读全文
posted @ 2020-02-04 21:37 末日搭车指南 阅读(219) 评论(0) 推荐(0) 编辑
 
摘要: 阅读全文
posted @ 2020-02-04 03:38 末日搭车指南 阅读(208) 评论(0) 推荐(0) 编辑
 

2020年2月3日

摘要: 优点Naive Bayes classifiers tend to perform especially well in one of the following situations: When the naive assumptions actually match the data (very 阅读全文
posted @ 2020-02-03 04:49 末日搭车指南 阅读(109) 评论(0) 推荐(0) 编辑
 

2020年2月2日

摘要: 求可以让likelihood 达到最大的 就是说Y已经出现了,相应的X也有了,哪一个参数w可以让个Y出现的概率最大 找到这个w 让目标函数的导数等于0,来找到最大值的点 阅读全文
posted @ 2020-02-02 04:40 末日搭车指南 阅读(230) 评论(0) 推荐(0) 编辑
 
摘要: 因为每一条数据都服从IID原则: 根据中心极限定理,当数据增加的时候,样本均值的分布慢慢变成正态分布 不管分布式什么分布,累加起来都是高斯分布 As sum increases, sum of non-Gaussian, finite variance variables is also Gauss 阅读全文
posted @ 2020-02-02 04:17 末日搭车指南 阅读(871) 评论(0) 推荐(0) 编辑
 

2020年1月22日

摘要: Google用它来体现网页的相关性和重要性 阅读全文
posted @ 2020-01-22 00:54 末日搭车指南 阅读(513) 评论(0) 推荐(0) 编辑
 

2020年1月18日

摘要: training set: 用来训练模型 validation set : 用来做model selection test set : 用来评估所选出来的model的实际性能 我们知道,在做模型训练之前,我们必须选择所训练的模型的形式:线性模型(y = wx+b)或者非线性模型(SVM,decisi 阅读全文
posted @ 2020-01-18 05:40 末日搭车指南 阅读(1074) 评论(0) 推荐(0) 编辑
 
摘要: Bias-variance 分解是机器学习中一种重要的分析技术。 给定学习目标和训练集规模,它可以 把一种学习算法的期望误差分解为三个非负项的和,即本真噪音noise、bias和 variance noise 本真噪音是任何学习算法在该学习目标上的期望误差的下界; ( 任何方法都克服不了的误差) b 阅读全文
posted @ 2020-01-18 03:53 末日搭车指南 阅读(523) 评论(0) 推荐(0) 编辑
 

2020年1月17日

摘要: 坐标下降法属于一种非梯度优化的方法,它在每步迭代中沿一个坐标的方向进行线性搜索(线性搜索是不需要求导数的),通过循环使用不同的坐标方法来达到目标函数的局部极小值。 阅读全文
posted @ 2020-01-17 03:26 末日搭车指南 阅读(278) 评论(0) 推荐(0) 编辑
 

2020年1月8日

摘要: https://www.jianshu.com/p/6ada34655862 阅读全文
posted @ 2020-01-08 00:36 末日搭车指南 阅读(390) 评论(0) 推荐(0) 编辑
 
上一页 1 ··· 5 6 7 8 9 10 下一页