微信扫一扫打赏支持
上一页 1 ··· 22 23 24 25 26 27 28 29 30 ··· 498 下一页
摘要: 201119西瓜书系列博客 1、绪论 一、总结 一句话总结: 要善于凭借,这样万利无害 1、为什么未标记的数据照样很有用? 通常假设样本空间中全体样本服从某个未知分布,我们获得的每个样本都是独立地从这个分布上采样获得的【(即“独立同分布”)】 一般而言:【训练样本越多 ——> 得到关于该未知分布的信 阅读全文
posted @ 2020-11-20 10:11 范仁义 阅读(121) 评论(0) 推荐(0) 编辑
摘要: 201119西瓜书系列博客 16、强化学习 一、总结 一句话总结: 强化学习(【Reinforcement Learning】,简称【RL】)是机器学习的一个重要分支,前段时间人机大战的主角【AlphaGo正是以强化学习为核心技术】。 在强化学习中,包含两种基本的元素:【状态与动作】,【在某个状态下 阅读全文
posted @ 2020-11-20 09:45 范仁义 阅读(141) 评论(0) 推荐(0) 编辑
摘要: AlphaGo原理浅析 一、总结 一句话总结: 正如人类下棋那般【“手下一步棋,心想三步棋”】,Alphago也正是这个思想 【当处于一个状态时,机器会暗地里进行多次的尝试/采样】,并基于反馈回来的结果信息改进估值函数,从而最终通过增强版的估值函数来选择最优的落子动作。 1、AlphaGo的三大核心 阅读全文
posted @ 2020-11-20 09:37 范仁义 阅读(1506) 评论(0) 推荐(0) 编辑
摘要: 201116西瓜书机器学习系列 16、强化学习 一、总结 一句话总结: 【强化学习的应用非常非常广泛】 【AlphaGo代表着双人完美信息零和游戏。AlphaGo在围棋这么难的问题上取得了举世瞩目的成绩;AlphaGo是人工智能的一个里程碑。】 【Deepmind AlphaStar打败了星际争霸人 阅读全文
posted @ 2020-11-20 02:50 范仁义 阅读(118) 评论(0) 推荐(0) 编辑
摘要: 201119西瓜书系列博客 13、半监督学习 一、总结 一句话总结: 【主动学习仍需交互】:显然,主动学习需要与外界进行交互/查询/打标,其本质上仍然属于一种监督学习。 【无标记数据其实大有裨益】:事实上,无标记样本虽未包含标记信息,但它们与有标记样本一样都是【从总体中独立同分布采样得到】,因此它们 阅读全文
posted @ 2020-11-19 23:00 范仁义 阅读(109) 评论(0) 推荐(0) 编辑
摘要: 201119西瓜书系列博客 14、概率图模型 一、总结 一句话总结: 机器学习的核心在于【根据一些已经观察到的证据(例如训练样本)来对未知变量进行估计和预测】。 其中【基于概率的模型】将学习任务归结为【计算变量的概率分布】,正如之前已经提到的:【生成式模型先对联合分布进行建模,从而再来求解后验概率】 阅读全文
posted @ 2020-11-19 08:35 范仁义 阅读(143) 评论(0) 推荐(0) 编辑
摘要: 201119西瓜书系列博客 15、规则学习 一、总结 一句话总结: 【规则学习】是【从训练数据中】学习出一组【能用于对未见示例进行判别的规则】 【规则】本身是一个【贪心的搜索过程】 形式化地看,一条规则形如:$$\oplus \leftarrow f _ { 1 } \wedge f _ { 2 } 阅读全文
posted @ 2020-11-19 07:57 范仁义 阅读(148) 评论(0) 推荐(0) 编辑
摘要: 201116西瓜书机器学习系列 14、概率图模型 一、总结 一句话总结: 概率图模型:一类用【图】来【表达变量关系】的模型 从【有向图模型】到【无向图模型】,到学习与推断 1、马尔科夫假设? 概率图中各个状态的变化,【只与他的临近前一个状态相关】 $$P ( i _ { t } | i _ { 1 阅读全文
posted @ 2020-11-19 05:55 范仁义 阅读(109) 评论(0) 推荐(0) 编辑
摘要: 201116西瓜书机器学习系列 13、半监督学习 一、总结 一句话总结: 监督学习就是有feature有label,无监督学习只有feature没有label,半监督学习就是【部分数据有label,部分数据每有label】 半监督学习和主动学习的区别是没有【专家系统】 1、半监督学习 常用方法? 可 阅读全文
posted @ 2020-11-19 03:37 范仁义 阅读(187) 评论(0) 推荐(0) 编辑
摘要: 201116西瓜书机器学习系列 12、计算学习理论 一、总结 一句话总结: 计算学习理论:研究【泛化误差】和【经验误差】之间的【逼近程度】 1、PAC可学习? PAC可学习:以较大概率【预测】到【满足预测误差上限】的模型 2、量化假设空间的复杂度的方法? 【VC维和Rademacher复杂度】 3、 阅读全文
posted @ 2020-11-19 01:33 范仁义 阅读(172) 评论(0) 推荐(0) 编辑
上一页 1 ··· 22 23 24 25 26 27 28 29 30 ··· 498 下一页