随笔分类 -  DeepLearning

摘要:1. Introduction 在CNN的计算过程中,各级存储层次(DRAM、on-chip global buffer、Regs)之间的数据传输很复杂,从功耗的观点来看,当前的CNN加速器是通信主导的,最小化通信是提高CNN加速器能效的关键。 最大化数据复用可以减少通信,数据复用依赖于卷积数据流, 阅读全文
posted @ 2020-05-17 09:39 笑着刻印在那一张泛黄 阅读(1492) 评论(1) 推荐(0) 编辑
摘要:1、摘要 当下神经网络架构设计主要以indirect metric,比如FLOPs,作为指导,但是direct metric,比如speed,也依赖于其他的因素,比如memory acccess cost,platform characters。因此,这篇文章不再局限于FLOPs的评估,而是在tar 阅读全文
posted @ 2020-03-28 11:35 笑着刻印在那一张泛黄 阅读(474) 评论(0) 推荐(0) 编辑
摘要:1、Introduction (1)神经网络的几个优化方向:prune redundant connection, use low-precision or quantized weights, use more efficient architectures (2)神经网络中的redundancy 阅读全文
posted @ 2020-03-23 17:58 笑着刻印在那一张泛黄 阅读(536) 评论(0) 推荐(0) 编辑
摘要:1、引言 主要创新: 1)complementary search techniques 2)new efficient versions of nonlinearities practical for mobile setting 3)new efficient network design 4) 阅读全文
posted @ 2020-03-03 11:23 笑着刻印在那一张泛黄 阅读(336) 评论(0) 推荐(0) 编辑
摘要:1、数据增强 1)随机裁剪 在原始图片的每一边pad 4个 pixels,然后再裁切成32*32的图片 distorted_images = tf.image.resize_image_with_crop_or_pad(record_images, imageHeight+8, imageWidth 阅读全文
posted @ 2020-02-29 11:48 笑着刻印在那一张泛黄 阅读(270) 评论(0) 推荐(0) 编辑
摘要:1、Introduction 1)网络深度很重要 Deep networks naturally integrate low/mid/highlevel features and classifiers in an end-to-end multilayer fashion, and the “le 阅读全文
posted @ 2020-02-29 10:37 笑着刻印在那一张泛黄 阅读(216) 评论(0) 推荐(0) 编辑
摘要:1、结构对比 1)MobileNet-V1 2)ShuffleNet-V1 3)MobileNet-V2 4)ShuffleNet-V2 阅读全文
posted @ 2020-02-27 20:14 笑着刻印在那一张泛黄 阅读(839) 评论(0) 推荐(0) 编辑
摘要:1、主要创新 1)提出了一种新的layer module:the inverted residual with linear bottleneck, 2)short connect被置于bottleneck层之间,比置于expanded层之间可以取得更好的效果 3)采用线性bottleneck层(即 阅读全文
posted @ 2020-02-27 16:59 笑着刻印在那一张泛黄 阅读(343) 评论(0) 推荐(0) 编辑
摘要:参考博客:https://blog.csdn.net/program_developer/article/details/80867468 阅读全文
posted @ 2020-02-27 16:26 笑着刻印在那一张泛黄 阅读(154) 评论(0) 推荐(0) 编辑
摘要:参考博客:https://blog.csdn.net/ZJRN1027/article/details/80199248 1、计算cost的过程 1)对神经网络的输出(logits)进行softmax,即概率归一化; 2)结合样本的标签labels计算交叉熵cross-entropy,作为loss; 阅读全文
posted @ 2020-02-25 09:27 笑着刻印在那一张泛黄 阅读(581) 评论(0) 推荐(0) 编辑
摘要:摘抄自:https://blog.csdn.net/u011500062/article/details/51728830/ 1、实例 2、运行结果 3、解释 训练阶段,每经过checkpoint_steps 步保存一次变量,保存的文件夹为checkpoint_dir 测试阶段,ckpt.model 阅读全文
posted @ 2019-02-15 10:03 笑着刻印在那一张泛黄 阅读(295) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示