摘要: 学界 | Vicarious发表Science论文:概率生成模型超越神经网络 选自Science 作者:D. George等 参与:蒋思源 当前人工智能的兴起主要基于深度学习的发展,但是这种方法并不能让计算机像人类一样通过学习少量样本就能将知识泛化到很多种问题中去,这也意味着系统应用范围受限。最近, 阅读全文
posted @ 2018-09-28 22:00 Lucas_Yu 阅读(606) 评论(0) 推荐(0) 编辑
摘要: 生成学习(generative learning),维特罗克提出的一种人类学习过程。强调学习过程是学习者原有认知结构与从环境中接受的感觉信息相互作用、主动建构信息意义的生成过程。其前提是:(1)人对所学习的事物产生某种意义时,总是与他先前的经验相结合。(2)人脑不是被动地学习和记录输入的信息,而是主 阅读全文
posted @ 2018-09-28 15:27 Lucas_Yu 阅读(577) 评论(0) 推荐(0) 编辑
摘要: 物理量:物理学是实验科学,其数值和单位都是通过测量并归纳出的数量关系;故物理量中的'量’实际上包含测量(度量)的数值和单位以及几个测量数量的关系。 比如位移和时间可以直接测量,而速度、加速度则是通过位移和时间表达出来,即位移、时间、速度、加速度都是用来描述物体运动的物理量。 亦即物理量是由测量的数值 阅读全文
posted @ 2018-09-28 14:53 Lucas_Yu 阅读(8647) 评论(0) 推荐(0) 编辑
摘要: 作者: 杰森·布朗利于 2017 年 7月17日 在 长期短期记忆网络中 序列预测是涉及使用历史序列信息来预测序列中的下一个或多个值的问题。 序列可以是诸如句子中的字母之类的符号,也可以是诸如价格的时间序列中的实际值之类的符号。在时间序列预测的背景下,序列预测可能是最容易理解的,因为问题已经被普遍理 阅读全文
posted @ 2018-09-28 13:45 Lucas_Yu 阅读(661) 评论(0) 推荐(0) 编辑
摘要: 用序列学习方法创建语言翻译模型 大家好。自从我上一篇博客文章发布以来已经有很长一段时间了。这听起来像是一个借口,但我一直在努力寻找新的地方。我不得不说,对于外国人来说,在日本寻找一个合理的公寓真是个问题。幸运的是,我设法找到一个,我刚搬进来将近两个星期。无论如何,最艰难的时刻已经过去了,现在我可以让 阅读全文
posted @ 2018-09-27 17:31 Lucas_Yu 阅读(854) 评论(0) 推荐(0) 编辑
摘要: 总结一下结构图与信号流图的区别与联系:不管是数据还是操作,都会用字母标示出来,不同在于谁附带了框(圈)套! 阅读全文
posted @ 2018-09-26 10:40 Lucas_Yu 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 一、python存储模型的方法 好了,进入正题,在python中如何存储tensorflow模型。 tf.saved_model.builder(推荐) tf.saved_model是tensorflow官网推荐的一个保存模型的方法,只要你输入保存模型的路径,就可以使用。基本使用方式如下: impo 阅读全文
posted @ 2018-09-20 16:19 Lucas_Yu 阅读(684) 评论(0) 推荐(0) 编辑
摘要: 登陆到tensorflow官网www.tensorflow.org,没有梯子的同学可以使用如下网站:devdocs.io,这个网站目前支持大部分的API接口的离线阅读,你只需要enable你需要的语言,然后install即可,绝对的查阅代码神器。从官网可以查阅到tensorflow的相关API。 查 阅读全文
posted @ 2018-09-20 14:58 Lucas_Yu 阅读(113) 评论(0) 推荐(0) 编辑
摘要: tf.keras.layers和tf.layers有什么区别? 问问题 投票 2 投票 最喜欢 1 tf.keras.layers和tf.layers有什么区别? 例如,他们都有Conv2d,他们提供不同的输出吗? 如果你把它们混合起来有什么好处(比如tf.keras.layers.Conv2d在一 阅读全文
posted @ 2018-09-19 17:09 Lucas_Yu 阅读(1648) 评论(0) 推荐(0) 编辑
摘要: outputs和state有什么关系? 结论上来说,如果cell为LSTM,那 state是个tuple,分别代表Ct 和 ht,其中 ht与outputs中的对应的最后一个时刻的输出相等,假设state形状为[ 2,batch_size, cell.output_size ],outputs形状为 阅读全文
posted @ 2018-09-16 22:30 Lucas_Yu 阅读(141) 评论(0) 推荐(0) 编辑