摘要:
一、强化学习问题需要描述那些内容 强化学习中最主要的两类对象是“个体”和“环境”,其次还有一些像“即时奖励”、“收获”、“状态”、“行为”、“价值”、“策略”、“学习”、“控制”等概念。这些概念把个体和环境联系起来。通过理论学习,我们知道: 1. 环境响应个体的行为。当个体执行一个行为时,它需要根据 阅读全文
该文被密码保护。 阅读全文
摘要:
在DeepLearning的文章中有看到end2end一次,作者们似乎都比较喜欢这个end2end learning的方式。那么到底啥是end2end?找了一下相关论文,没找到专门讲这个概念的,看来应该不是很严格定义的一个说法。那就搬运一下Quora上的提问和回答吧。问题:https://www.quora.com/What-is-end-to-end-learning-in-machine-le... 阅读全文
摘要:
报错是因为要安装PIL库,库名现在为Pillow,在命令行上安装即可:pip3 install Pillow 阅读全文
摘要:
tf.estimator模块 定义在:tensorflow/python/estimator/estimator_lib.py 估算器(Estimator): 用于处理模型的高级工具。 export 模块:用于导出估算器的实用方法。 inputs 模块:用于创建简单的 input_fns 的实用方法 阅读全文
摘要:
tf.contrib模块 tf.contrib 模块是一个比较复杂的模块。 contrib细节: tf.contrib.bayesflow.entropy 香农信息论 tf.contrib.bayesflow.monte_carlo Monte Carlo integration 蒙特卡洛积分 tf 阅读全文
摘要:
在信息论中,Rényi熵是Hartley熵,Shannon熵,碰撞熵和最小熵的推广。熵能量化了系统的多样性,不确定性或随机性。Rényi熵以AlfrédRényi命名。在分形维数估计的背景下,Rényi熵构成了广义维数概念的基础。 Rényi熵在生态学和统计学中是重要的多样性指标。Rényi熵在量子 阅读全文
摘要:
浅谈KL散度 一、第一种理解 相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。 KL散度是两个概率分布P和Q差别的非 阅读全文
摘要:
Tensorflow的基本使用TensorFlow 的特点:使用图 (graph) 来表示计算任务.在被称之为 会话 (Session) 的上下文 (context) 中执行图.使用 tensor 表示数据.通过 变量 (Variable) 维护状态.使用 feed 和 fetch 可以为任意的操作(arbitrary operation) 赋值或者从其中获取数据.TensorFlow 综述Ten... 阅读全文
摘要:
tf.InteractiveSession():它能让你在运行图的时候,插入一些计算图,这些计算图是由某些操作(operations)构成的。这对于工作在交互式环境中的人们来说非常便利,比如使用IPython。tf.Session():需要在启动session之前构建整个计算图,然后启动该计算图。意思就是在我们使用tf.InteractiveSession()来构建会话的时候,我们可以先构建一个s... 阅读全文