机器学习总结(1)—开篇

前言 

  过去几个月,一直在学习机器学习模型的知识,众所周知,输入只是学习的一部分,输出可以帮助自己更熟练地掌握概念和知识。把一个复杂的事物简单的讲述出来,才能够证明真正弄懂了这个知识。所以我将在博客中尽量简单地把这些模型讲述出来,以加深自己的掌握,也为他人提供一点点参考。在此感谢大神刘建平Pinard的博客,如有任何疑惑可参考该神博客。

正文—aba,aba

机器学习模型,包括有监督学习,无监督学习,强化学习三个大的部分。

  有监督学习包括各种分类,回归算法,集成模型,也包括有监督的神经网络(有监督的意思是,训练集有标签,告诉了这是什么东西)

  无监督学习,包括了聚类,关联,降维

  强化学习我只知道它的基本目的是最优化策略(突破局部最优),比如可以用来训练下棋。基本思想是设置短期回报reward函数和长期回报value来训练当前的动作。基本数学方法是设置一个期望函数,通过环境动作,最大化期望函数。由于我了解得并不深入,就不赘述了。

  机器学习方法用来做推荐系统,于是有了推荐系统的一系列算法。做NLP于是有了该方向的一系列算法。用来做计算机视觉同样如此。人们在不同的领域应用机器学习方法,对算法做一些更改优化,以适应各自领域,这使得机器学习有了庞大的分支。

  但从简单来说,一个模型,最重要的东西就是,模型的输入,定义目标函数(损失函数),优化方法,模型输出。了解了这些东西模型迎刃而解,也就了解了它到底用来做什么,并且怎么做到的。所以我之后的模型介绍尽量都按照这个思路进行。

  本篇完结撒花。

 

posted @ 2020-10-18 12:42  simpleye1  阅读(152)  评论(0编辑  收藏  举报