博客总目录
由于想将精力专注于内容,而非写BLOG,所以接下来仅维护一个BLOG。
又因为 博客园 对公式的支持比较不友好,我用为知笔记写完,利用API发送上来,公式总是显示不出来。
所以接下来的文章,仅发表在知乎专栏中,这里仅列出目录,希望能给部分同学带来帮助。
专栏地址:https://zhuanlan.zhihu.com/data-miner
当我们在谈论K-means
在网上找到的K-means或聚类相关的文章,内容大多较为琐碎,不太能帮助深入理解它。为了加深对K-means的理解,以便在实际中调参与修改算法,于是有了这个系列。此系列主要是从理论层面去理解K-means及相关算法,包含的文章如下:
- 当我们在谈论K-means:数据概述
- 当我们在谈论K-means:论文概述(1)
- 当我们在谈论K-means:论文概述(2)
- 当我们在谈论K-means:其他聚类算法
- 当我们在谈论K-means:总结
当我们在谈论GBDT
由于 GBDT 效果一直比较好,加上 XGBoost 的易用性,GBDT 近几年在Kaggle等竞赛中受到追捧。同时,也带火了相关的一些 ensemble learning 算法。我想系统的梳理一下相关的知识点,但网上有关 GBDT 的文章相对琐碎,所以有了这个系列。这个系列除了从理论层面去梳理相关概念,也会辅以实践案例,包含的文章如下(暂定,文章正在写):
- 当我们在谈论GBDT:从 AdaBoost 到 Gradient Boosting
- 当我们在谈论GBDT:Gradient Boosting 用于分类与回归
- 当我们在谈论GBDT:其他 Ensemble Learning 算法
- 当我们在谈论GBDT:在 Kaggle 等竞赛中实践
当我们在谈论 Deep Learning
Deep Learning 是众多机器学习算法中的一种。它起源于60年代的 Perceptron,经过80年代的 Artificial Neural Network,现阶段被称为 Deep Learning。迄今为止,是“有监督学习”领域最强大的算法类型,暂时还没有“之一”。同时,它也正在往”无监督“和”强化学习“领域扩散。网络上虽然已经有不少介绍 Deep Learning 的文章,但是大多不成系统,或作者并没有持续更新。因此便想自己写一个系列,梳理 Deep Learning 经典结构或算法,尽量保持更新。本系列包含的文章如下(这只是预告,正文正在写):
Supervised Learning:
Unsupervised Learning:
Reinforcement Learning: