微信扫一扫打赏支持
摘要: PCA数学原理 一、总结 一句话总结: PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过【线性变换】将【原始数据变换为一组各维度线性无关的表示】,可用于提取数据的主要特征分量,常用于高维数据的降维。 那么如何选择这个方向(或者说基)才能尽量保留最 阅读全文
posted @ 2020-11-22 23:56 范仁义 阅读(297) 评论(0) 推荐(0) 编辑
摘要: 如何通俗易懂地解释卷积 一、总结 一句话总结: 卷积连续定义:$$( f * g ) ( n ) = \int _ { - \infty } ^ { \infty } f ( \tau ) g ( n - \tau ) d \tau$$ 卷积离散定义:$$( f * g ) ( n ) = \sum 阅读全文
posted @ 2020-11-22 22:56 范仁义 阅读(1056) 评论(0) 推荐(0) 编辑
摘要: 蒙特卡洛树简单介绍 一、总结 一句话总结: 2006年,Remi Coulom开发了一款叫做【Crazy Stone的围棋游戏】,该款游戏表现令人惊讶,斩获了好几个锦标赛冠军。【蒙特卡洛树就是该游戏的一个核心算法】。 从全局来看,蒙特卡洛树搜索的主要目标是:【给定一个游戏状态来选择最佳的下一步】。 阅读全文
posted @ 2020-11-22 22:44 范仁义 阅读(2233) 评论(0) 推荐(0) 编辑
摘要: 201119西瓜书系列博客 12、计算学习理论 一、总结 一句话总结: 【计算机学习理论研究的是关于通过计算来进行学习的理论】,即【关于机器学习的理论基础,其目的是分析学习任务的困难本质】,为学习算法提供理论保证。 例如:【在什么条件下可进行有效的学习,需要多少训练样本才能获得较好的精度等】。 12 阅读全文
posted @ 2020-11-22 10:53 范仁义 阅读(161) 评论(0) 推荐(0) 编辑
摘要: 201119西瓜书系列博客 11、特征选择与稀疏学习 一、总结 一句话总结: 11.1、子集搜索与评价;11.2、过滤式选择;11.3、包裹式选择 11.4、嵌入式选择与L1正则化;11.5、稀疏表示与字典学习;11.6、压缩感知 11.1 子集搜索与评价 子集搜索 特征子集评价11.2 过滤式选择 阅读全文
posted @ 2020-11-22 10:30 范仁义 阅读(99) 评论(0) 推荐(0) 编辑
摘要: 201119西瓜书系列博客 10、降维与度量学习 一、总结 一句话总结: 【降维】是【将原高维空间嵌入到一个合适的低维子空间中】,接着在低维空间中进行学习任务; 【度量学习】则是【试图去学习出一个距离度量来等效降维的效果】,两者都是为了解决维数灾难带来的诸多问题。 也许大家最后心存疑惑,那kNN呢, 阅读全文
posted @ 2020-11-22 09:44 范仁义 阅读(198) 评论(0) 推荐(0) 编辑