上一页 1 ··· 4 5 6 7 8 9 10 11 下一页
摘要: http://www.cnblogs.com/leoo2sk/archive/2010/09/18/bayes-network.html 阅读全文
posted @ 2017-09-24 17:46 imageSet 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 贝叶斯定理 P(B|A)P(A)=P(AB) P(A|B)P(B)=P(AB) 可以互推P(B|A)和P(A|B) P(B|A)=P(A|B)P(B)/P(A) 发现一篇好文。 http://www.cnblogs.com/leoo2sk/archive/2010/09/17/naive-bayes 阅读全文
posted @ 2017-09-23 19:47 imageSet 阅读(172) 评论(0) 推荐(0) 编辑
摘要: 分类和逻辑回归(Classification and logistic regression) http://www.cnblogs.com/czdbest/p/5768467.html 广义线性模型(Generalized Linear Models) http://www.cnblogs.com 阅读全文
posted @ 2017-09-23 15:20 imageSet 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 1 Α α alpha a:lf 阿尔法 2 Β β beta bet 贝塔 3 Γ γ gamma ga:m 伽马 4 Δ δ delta delt 德尔塔 5 Ε ε epsilon ep`silon 伊普西龙 6 Ζ ζ zeta zat 截塔 7 Η η eta eit 艾塔 8 Θ θ t 阅读全文
posted @ 2017-09-23 15:05 imageSet 阅读(320) 评论(0) 推荐(0) 编辑
摘要: 见http://www.cnblogs.com/chengxin1982/p/7076064.html 阅读全文
posted @ 2017-09-23 10:48 imageSet 阅读(654) 评论(0) 推荐(0) 编辑
摘要: 这里有现成的,引用一下。http://www.cnblogs.com/czdbest/p/5767138.html 阅读全文
posted @ 2017-09-22 21:47 imageSet 阅读(150) 评论(0) 推荐(0) 编辑
摘要: 对于一个线性回归问题有 为了使得预测值h更加接近实际值y,定义 J越小,预测更加可信,可以通过对梯度的迭代来逼近极值 批梯度下降(batch gradient descent)(the entire training set before taking a single step) 随机梯度下降(s 阅读全文
posted @ 2017-09-22 21:08 imageSet 阅读(331) 评论(0) 推荐(0) 编辑
摘要: 主成分分析 ( Principal Component Analysis , PCA )或者主元分析。用于数据降维。 强大的矩阵奇异值分解(SVD)及其应用 http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applicati 阅读全文
posted @ 2017-09-21 23:15 imageSet 阅读(126) 评论(0) 推荐(0) 编辑
摘要: 列表解析式是列表生成式的一种,即在列表生成式中加入条件 字典解析式和列表解析式的用法是差不多的 集合解析式跟列表解析式差不多,都是对一个列表的元素全部执行相同的操作,但集合是一种无重复无序的序列。 区别:跟列表解析式的区别在于:1.不使用中括号,使用大括号;2.结果中无重复;3.结果是一个set() 阅读全文
posted @ 2017-09-17 17:02 imageSet 阅读(219) 评论(0) 推荐(0) 编辑
摘要: 匿名函数lambda x: x * x实际上就是: 关键字lambda表示匿名函数,冒号前面的x表示函数参数。 匿名函数有个限制,就是只能有一个表达式,不用写return,返回值就是该表达式的结果。 用匿名函数有个好处,因为函数没有名字,不必担心函数名冲突。此外,匿名函数也是一个函数对象,也可以把匿 阅读全文
posted @ 2017-09-17 16:30 imageSet 阅读(164) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 10 11 下一页