2019年12月2日
摘要: Sebastian Ruder 自然语言处理方向博士生、AYLIEN 研究科学家 Sebastian Ruder 参考资料: ⭕ 深度解读最流行的优化算法:梯度下降 ⭕ 深度神经网络多任务学习 阅读全文
posted @ 2019-12-02 09:23 筱筱蛋坑 阅读(81) 评论(0) 推荐(0) 编辑
  2019年11月28日
摘要: 摘要: Mind Theory泛指人类表示他人心理状态的能力,包括欲望、信仰和意图。作者设计了一套心智神经网络理论ToMnet,使用元学习建立它所遇到的智能体的模型,仅仅通过观察它们的行为。通过这个过程,ToMnet获得了要给强大的智能体行为的先验模型,可以仅使用少量的行为观察引导更丰富的有关智能体 阅读全文
posted @ 2019-11-28 11:26 筱筱蛋坑 阅读(495) 评论(0) 推荐(0) 编辑
  2019年11月25日
摘要: 摘要 作者认为大多数动物的行为不是聪明的学习算法——监督或者非监督——的结果,而是编码在基因组中。具体来说,动物具有高度结构化的大脑连接,使它们能够非常迅速的学习。由于连接过于复杂无法在基因组中明确指定,通过“genomic bottleneck”进行了压缩,而genomic bottleneck为 阅读全文
posted @ 2019-11-25 16:18 筱筱蛋坑 阅读(347) 评论(0) 推荐(0) 编辑
摘要: 文章主要问题是解决少样本学习,灵感来自actor-critic增强学习,但可以应用于增强和监督学习。核心方法是学习一个meta-critic——神经网络的行为价值函数,学习去评判解决特殊任务的actor。对于监督学习,相当于一个可训练的任务参数损失发生器。对于增强学习和监督学习,这种方法提供了一种知 阅读全文
posted @ 2019-11-25 08:53 筱筱蛋坑 阅读(698) 评论(1) 推荐(0) 编辑
  2019年11月22日
摘要: 一、强化学习简介 强化学习强调如何基于环境而行动,以取得最大化的预期收益。灵感来源于心理学中的行为主义理论,即有机体在环境给予奖励或惩罚的刺激下,逐步形成对刺激的预期,产生能获得最大利益的习惯性行为。 强化学习所解决问题的特点:1、智能体和环境之间不断交互;2、搜索和试错;3、延迟奖励(当前的动作很 阅读全文
posted @ 2019-11-22 09:29 筱筱蛋坑 阅读(718) 评论(0) 推荐(0) 编辑
  2019年11月21日
摘要: LSTM是一种特殊的RNN网络,为了解决RNN的长依赖问题,使进行信息处理的地方可以学习到距离较远的信息。下图为RNN和LSTM的结构差异,LSTM有四个网络层。 LSTM的核心是细胞状态,像传送带一样贯穿整个细胞,但只有很少的分支,保证信息不变的流过整个RNN。 LSTM通过一种门结构(一个sig 阅读全文
posted @ 2019-11-21 19:00 筱筱蛋坑 阅读(1053) 评论(0) 推荐(0) 编辑
  2019年11月19日
摘要: RNN是两种神经网络模型的缩写,一种是递归神经网络(Recursive Neural Network),一种是循环神经网络(Recurrent Neural Network)。这里讨论第二种。 1、概述 RNN是一种特殊的神经网络结构,根据人的认知是基于以往的经验和记忆这一观点提出,不仅考虑前一时刻 阅读全文
posted @ 2019-11-19 22:32 筱筱蛋坑 阅读(378) 评论(0) 推荐(0) 编辑
  2019年11月17日
摘要: 何为机器学习: Mitchell在1997年给出了形式化的定义:假设P来评估计算机程序在某任务类T上的性能,若一个程序通过利用经验E在T中任务上获得了性能改善,则关于T和P,该程序对E进行了学习。 通俗来说,机器学习就是通过计算的手段,利用经验来改善系统自身的性能。从实际操作上,计算机系统的经验通常 阅读全文
posted @ 2019-11-17 15:32 筱筱蛋坑 阅读(216) 评论(0) 推荐(0) 编辑
  2019年11月15日
摘要: 参考文献: ⭕ 讲解博客yif25 阅读全文
posted @ 2019-11-15 17:14 筱筱蛋坑 阅读(112) 评论(0) 推荐(0) 编辑
摘要: 1、什么是智能? 智能——智力和能力,“智”指进行认识活动的某些心理特点,“能”则指进行实际活动的某些心理特点。 一些智能行为:学习、推理、思考、规划 Intelligence has been defined in many ways: the capacity for logic, unders 阅读全文
posted @ 2019-11-15 15:48 筱筱蛋坑 阅读(1063) 评论(0) 推荐(0) 编辑