02 2019 档案

关于adaboost分类器
摘要:我花了将近一周的时间,才算搞懂了adaboost的原理。这根骨头终究还是被我啃下来了。 Adaboost是boosting系的解决方案,类似的是bagging系,bagging系是另外一个话题,还没有深入研究。Adaboost是boosting系非常流行的算法。但凡是介绍boosting的书籍无不介 阅读全文

posted @ 2019-02-18 21:59 张叫兽的技术研究院 阅读(2553) 评论(0) 推荐(0) 编辑

到底什么是贝叶斯?
摘要:朴素贝叶斯,到底什么是贝叶斯? 先验概率:就是在某个元素在某个分类中概率,比如一个公司,里面有运维团队,开发团队(分类)里面有100个人;有海事大学的10个人,那么海事大学在开发团队中概率是10%; 后验概率:那么作为该公司的一个海事大学的毕业生,是在开发团队中概率是多少?(还有测试团队,运维团队);贝叶斯解决的,就是根据先验概率来求解后验概率。 体会一下,贝叶斯问题其实就是一个... 阅读全文

posted @ 2019-02-17 12:22 张叫兽的技术研究院 阅读(540) 评论(0) 推荐(0) 编辑

逻辑回归(logic regression)的分类梯度下降
摘要:首先明白一个概念,什么是逻辑回归;所谓回归就是拟合,说明x是连续的;逻辑呢?就是True和False,也就是二分类;逻辑回归即使就是指对于二分类数据的拟合(划分)。 那么什么是模型呢?模型其实就是函数。函数是由三部分组成:自变量,因变量以及参数。 此次采用模型是sigmoid函数: sigmoid函 阅读全文

posted @ 2019-02-17 12:02 张叫兽的技术研究院 阅读(1217) 评论(0) 推荐(0) 编辑

机器学习随想(一)
摘要:为什么分类处理成-1,1 我好像突然明白了为什么要分类为正负1,因为sigmond函数其实真是的区分度是0值,其上是分割线的右边,多是大于0,其下都是小于0,值其实是连续的,但是完全可以通过正负号来进行分类区分。所以分类一般倾向于通过正负1来搞,而不是0,1,;在python中sign函数就是用来获 阅读全文

posted @ 2019-02-17 11:23 张叫兽的技术研究院 阅读(119) 评论(0) 推荐(0) 编辑

nonzero
摘要:在python的numpy里面这个函数的意义是返回参数数组中不为0的元素的索引(indics)。 from numpy import array output: [[1 0 0] [0 2 0] [1 1 0]] (array([0, 1, 2, 2], dtype=int64), array([0 阅读全文

posted @ 2019-02-11 07:49 张叫兽的技术研究院 阅读(246) 评论(0) 推荐(0) 编辑

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示