NAS研究要点分析

第一篇NAS:NEURAL ARCHITECTURE SEARCH WITH REINFORCEMENT LEARNING[ICLR'17]

搜索每层的filter数量、filter的高和宽,以及卷积的步长。

采用强化学习的方法,RNN作为controller,用策略梯度(policy gradient)最大化controller采样网络的期望reward,这个reward就是validation accuracy。

Cifar数据集上800块gpu跑了近一个月。

第二篇NAS:Learning Transferable Architectures for Scalable Image Recognition[CVPR'18]

不再搜索整个网络结构,搜索cell结构,然后将cell堆叠起来。

仍然采用强化学习的方式。

第三篇NAS:Regularized Evolution for Image Classifier Architecture Search[AAAI'19]

搜索空间同第二篇,但是优化方法改变为regularized evolution,进化算法。

第四篇NAS:Efficient Neural Architecture Search via Parameter Sharing[ICML'18]

通过weight sharing加速validation。

将NAS的采样过程变成在一个DAG里面采样子图的过程,采样到的子图里面的操作(卷积等)是参数共享的。

第五篇NAS:DARTS: Differentiable Architecture Search[ICLR'19]

也是cell堆叠,但是转换为连续空间的优化问题。

第六篇NAS:EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks[ICML'19]

适合落地应用,有很强的人工设计色彩。

放大MobileNet,但是如何放大该网络是优化出来的。

第七篇NAS:ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware[ICLR'19]

目标函数上加入硬件latency的损失项.

 

posted @ 2020-07-09 10:36  阿刚的代码进阶之旅  阅读(458)  评论(0编辑  收藏  举报