上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 33 下一页
摘要: 蒸馏神经网络取名为蒸馏(Distill),其实是一个非常形象的过程。 我们把数据结构信息和数据本身当作一个混合物,分布信息通过概率分布被分离出来。首先,T值很大,相当于用很高的温度将关键的分布信息从原有的数据中分离,之后在同样的温度下用新模型融合蒸馏出来的数据分布,最后恢复温度,让两者充分融合。这也 阅读全文
posted @ 2018-09-20 10:47 Jerry_Jin 阅读(25062) 评论(3) 推荐(5) 编辑
摘要: 让TensorFlow们飞一会儿 前一篇文章说过了TensorFlow单机多卡情况下的分布式部署,毕竟,一台机器势单力薄,想叫兄弟们一起来算神经网络怎么办?我们这次来介绍一下多机多卡的分布式部署。 其实多机多卡分布式部署在我看来相较于单机多卡分布式更容易一些,因为一台机器下需要考虑我需要把给每个de 阅读全文
posted @ 2018-09-19 14:50 Jerry_Jin 阅读(2772) 评论(0) 推荐(0) 编辑
摘要: 让TensorFlow飞一会儿 面对大型的深度神经网络训练工程,训练的时间非常重要。训练的时间长短依赖于计算处理器也就是GPU,然而单个GPU的计算能力有限,利用多个GPU进行分布式部署,同时完成一个训练任务是一个很好的办法。对于caffe来说,由于NCCL的存在,可以直接在slover中指定使用的 阅读全文
posted @ 2018-09-19 14:45 Jerry_Jin 阅读(4407) 评论(0) 推荐(0) 编辑
摘要: 安装openpai请参考这篇 https://www.cnblogs.com/jins-note/p/9673883.html 首先准备两台服务器(必须为Ubuntu16.04 Server),一台作为master,一台作为worker(master和worker由我们自己指定)。每台服务器都必须要 阅读全文
posted @ 2018-09-19 12:24 Jerry_Jin 阅读(1356) 评论(0) 推荐(0) 编辑
摘要: 介绍 不管是机器学习的老手,还是入门的新人,都应该装备上尽可能强大的算力。除此之外,还要压榨出硬件的所有潜力来加快模型训练。OpenPAI作为GPU管理的利器,不管是一块GPU,还是上千块GPU,都能够做好调度,帮助加速机器学习的模型训练过程。 关于什么是OpenPAI,请参考介绍视频:微软开源GP 阅读全文
posted @ 2018-09-19 12:11 Jerry_Jin 阅读(5166) 评论(6) 推荐(0) 编辑
摘要: OpenPAI:大规模人工智能集群管理平台 2018年5月22日,在微软举办的“新一代人工智能开放科研教育平台暨中国高校人工智能科研教育高峰论坛”上,微软亚洲研究院宣布,携手北京大学、中国科学技术大学、西安交通大学和浙江大学四所国内顶尖高校共建新一代人工智能开放科研教育平台,以推动中国人工智能领域科 阅读全文
posted @ 2018-09-19 10:00 Jerry_Jin 阅读(8151) 评论(0) 推荐(1) 编辑
摘要: 本文通过一个的实验,简要介绍频域手段添加数字盲水印的方法,并进一步验证其抗攻击性。在上述实验的基础上,总结躲避数字盲水印的方法。(多图预警) 本文分为五个部分,第一部分综述;第二部分频域数字盲水印制作原理介绍;第三部分盲水印攻击性实验;第四部分总结;第五部分附录(源代码)。 一、综述本文提供的一种实 阅读全文
posted @ 2018-09-19 09:54 Jerry_Jin 阅读(6072) 评论(0) 推荐(2) 编辑
摘要: 本文将会简单介绍Kubernetes的核心概念。因为这些定义可以在Kubernetes的文档中找到,所以文章也会避免用大段的枯燥的文字介绍。相反,我们会使用一些图表(其中一些是动画)和示例来解释这些概念。我们发现一些概念(比如Service)如果没有图表的辅助就很难全面地理解。在合适的地方我们也会提 阅读全文
posted @ 2018-09-18 22:54 Jerry_Jin 阅读(567) 评论(0) 推荐(0) 编辑
摘要: 概 述 本文主要记录一下 Linux 系统上一些常用的系统监控工具,非常好用。正所谓磨刀不误砍柴工,花点时间总结一下是值得的! 本文内容脑图如下: top 命令 top 命令我想大家都挺熟悉吧! Linux 下的 top 命令有点类似于 Windows 下的任务管理器,能够实时动态地监控并显示系统中 阅读全文
posted @ 2018-09-18 10:04 Jerry_Jin 阅读(2979) 评论(0) 推荐(0) 编辑
摘要: CPU在Cache中找到有用的数据被称为命中,当Cache中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有2级Cache的CPU中,读取L1 Cache的命中率为80%。也就是说CPU从L1 Cache中找到的有用数据占数据总量的80%,剩下的20%从L2 Cache读取。由于不能准确预测将要执行的数据,读取L2的命中率也在80%左右(从L2读到有用的数据占总数... 阅读全文
posted @ 2018-09-14 21:42 Jerry_Jin 阅读(3347) 评论(0) 推荐(0) 编辑
上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 33 下一页