随笔分类 -  李宏毅-机器学习

摘要:概述 lifelong learning非常直观,意思是机器不能前边学后边忘。常见的方法是对前边的task中学习出来的参数加一个保护系数,在后面的任务中,训练参数时,对保护系数大的参数很难训练,而保护系数小的参数则容易一些。 下面的图非常直观,颜色的深浅代表loss的大小,颜色越深loss越小。在t 阅读全文
posted @ 2021-08-01 21:11 19376273 阅读(448) 评论(0) 推荐(0) 编辑
摘要:强化学习(Reinforcement learning),通俗一点讲,看一理解为教会机器如何利用现有的奖惩规则卷一个高高的分数,通过趋利避害来起到较好的无监督学习效果,缺点也是可以类比得到,机器可能会钻规则的空子,成为一个高分的“卷王”,但是没有学到实际的本领。 基本概念 强化学习需要先理解几个概念 阅读全文
posted @ 2021-07-31 20:04 19376273 阅读(278) 评论(0) 推荐(0) 编辑
摘要:这一部分比较有难度,希望结合作业hw8代码,认真整理一下Seq2Seq与Attention机制的内容。本文主要是我对于这部分知识的理解和再加工,如有理解不当之处欢迎大家指出。文中的图文均来自于李老师的PPT。 多层LSTM 以下是LSTM的原理[3]。 一直以来对多层LSTM存在误解,把t 阅读全文
posted @ 2021-07-31 14:49 19376273 阅读(488) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示