上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 23 下一页
摘要: 建立堆 堆排序 堆内某个元素值变大(优先级提升)后调整堆 插入元素到堆尾 阅读全文
posted @ 2018-07-02 19:09 叠加态的猫 阅读(1441) 评论(0) 推荐(0) 编辑
摘要: 一、快速排序 i:维护小于r的数字,j:维护大于r的数字 二、随机快排 三、基于快排的元素选择 选择数组A[p,r]中的第i小元素 进一步提高性能 提高后复杂度分析 阅读全文
posted @ 2018-07-02 18:43 叠加态的猫 阅读(2706) 评论(0) 推荐(0) 编辑
摘要: 项目文档翻译总结 阅读全文
posted @ 2018-06-30 19:50 叠加态的猫 阅读(4531) 评论(1) 推荐(0) 编辑
摘要: Mat数据结构简介 阅读全文
posted @ 2018-06-29 14:58 叠加态的猫 阅读(1224) 评论(0) 推荐(0) 编辑
摘要: 对比两种主流语言函数传参机制,另简要分析一下python的变量作用域机制 阅读全文
posted @ 2018-06-26 15:03 叠加态的猫 阅读(839) 评论(0) 推荐(0) 编辑
摘要: 本节中的代码大量使用『TensorFlow』分布式训练_其一_逻辑梳理中介绍的概念,是成熟的多机分布式训练样例 一、基本概念 Cluster、Job、task概念:三者可以简单的看成是层次关系,task可以看成每台机器上的一个进程,多个task组成job;job又有:ps、worker两种,分别用于 阅读全文
posted @ 2018-06-17 23:43 叠加态的猫 阅读(5177) 评论(0) 推荐(0) 编辑
摘要: 建议比对『MXNet』第七弹_多GPU并行程序设计 一、tensorflow GPU设置 GPU指定占用 上面分配给tensorflow的GPU显存大小为:GPU实际显存*0.7。 GPU模式禁用 GPU资源申请规则 二、单机多GPU工作原理 以一篇csdn博客(出处见水印)上的图说明多GPU工作原 阅读全文
posted @ 2018-06-17 23:40 叠加态的猫 阅读(7569) 评论(0) 推荐(0) 编辑
摘要: 1,PS-worker架构 将模型维护和训练计算解耦合,将模型训练分为两个作业(job): 模型相关作业,模型参数存储、分发、汇总、更新,有由PS执行 训练相关作业,包含推理计算、梯度计算(正向/反向传播),由worker执行 该架构下,所有的woker共享PS上的参数,并按照相同的数据流图传播不同 阅读全文
posted @ 2018-06-17 18:27 叠加态的猫 阅读(4327) 评论(1) 推荐(2) 编辑
摘要: Python内置的强大的参数解析库 阅读全文
posted @ 2018-06-09 17:08 叠加态的猫 阅读(599) 评论(0) 推荐(0) 编辑
摘要: MXNet系列博客中相关内容索引 阅读全文
posted @ 2018-06-09 16:05 叠加态的猫 阅读(467) 评论(0) 推荐(0) 编辑
摘要: 想学习MXNet的同学建议看一看这位博主的博客,受益良多。 在本节中,我们将学习如何在MXNet中预处理和加载图像数据。 在MXNet中加载图像数据有4种方式。 预处理图像的方式有多种,我们列举其中的几种: 使用mx.io.ImageRecordIter ,快速但不是很灵活。 对于像图像识别这样的简 阅读全文
posted @ 2018-06-08 16:24 叠加态的猫 阅读(3506) 评论(0) 推荐(0) 编辑
摘要: 变量初始化操作的实质机理和相关操作 阅读全文
posted @ 2018-06-07 09:49 叠加态的猫 阅读(1791) 评论(0) 推荐(0) 编辑
摘要: 节选自官方文档,加深理解用 阅读全文
posted @ 2018-06-05 11:05 叠加态的猫 阅读(565) 评论(0) 推荐(0) 编辑
摘要: 使用C优化数组运算 阅读全文
posted @ 2018-06-03 19:34 叠加态的猫 阅读(2037) 评论(0) 推荐(0) 编辑
摘要: Python相关知识索引 阅读全文
posted @ 2018-06-02 23:20 叠加态的猫 阅读(1365) 评论(0) 推荐(1) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 23 下一页