摘要:
这里需要说明一下,笔者不建议在Windows环境下进行深度学习的研究,一方面是因为Windows所对应的框架搭建的依赖过多,社区设定不完全;另一方面,Linux系统下对显卡支持、内存释放以及存储空间调整等硬件功能支持较好。如果您对Linux环境感到陌生,并且大多数开发环境在Windows下更方便操作的话,希望这篇文章对您会有帮助。 阅读全文
摘要:
推荐配置
如果您是高校学生或者高级研究人员,并且实验室或者个人资金充沛,建议您采用如下配置:
主板:X299型号或Z270型号
CPU: i7-6950X或i7-7700K 及其以上高级型号
内存:品牌内存,总容量32G以上,根据主板组成4通道或8通道
SSD: 品牌固态硬盘,容量256G以上
显卡:NVIDIA GTX TITAN(XP) NVIDIA GTX 1080ti、NVIDIA GTX TITAN、NVIDIA GTX 1080、NVIDIA GTX 1070、NVIDIA GTX 1060 (顺序为优先建议,并且建议同一显卡,可以根据主板插槽数量购买多块,例如X299型号主板最多可以采用×4的显卡)
电源:由主机机容量的确定,一般有显卡总容量后再加200W即可 阅读全文
摘要:
如何引用Keras?
如何使Keras调用GPU?
如何在多张GPU卡上使用Keras
"batch", "epoch"和"sample"都是啥意思?
如何保存Keras模型?
为什么训练误差(loss)比测试误差高很多?
如何获取中间层的输出?
如何利用Keras处理超过机器内存的数据集?
当验证集的loss不再下降时,如何中断训练?
验证集是如何从训练集中分割出来的?
训练数据在训练时会被随机洗乱吗?
如何在每个epoch后记录训练/测试的loss和正确率?
如何使用状态RNN(statful RNN)?
如何“冻结”网络的层?
如何从Sequential模型中去除一个层?
如何在Keras中使用预训练的模型
如何在Keras中使用HDF5输入?
Keras的配置文件存储在哪里?
在使用Keras开发过程中,我如何获得可复现的结果? 阅读全文
摘要:
API - 数据预处理¶
我们提供大量的数据增强及处理方法,使用 Numpy, Scipy, Threading 和 Queue。
不过,我们建议你直接使用 TensorFlow 提供的 operator,如 tf.image.central_crop ,更多关于 TensorFlow 的信息请见
这里 和 tutorial_cifar10_tfrecord.py.
这个包的一部分代码来自Keras。 阅读全文
摘要:
API - 可视化¶
TensorFlow 提供了可视化模型和激活输出等的工具 TensorBoard。
在这里,我们进一步提供一些可视化模型参数和数据的函数 阅读全文
摘要:
tensorlayer.rein.discount_episode_rewards(rewards=[], gamma=0.99, mode=0)[源代码]¶
Take 1D float array of rewards and compute discounted rewards for an
episode. When encount a non-zero value, consider as the end a of an episode. 阅读全文