摘要:NSGA-NET中的micro内部细节搜索 micro做了啥 这篇文章的micro采用的是nasnet的搜索目标以及编码方式,只不过nasnet采用的是强化学习(如下图所示),作者这里将其更改为ea相关的算法来进行优化。搜索的目标主要是一个normal cell和一个reduction cell,构
阅读全文
摘要:fbnetv3中的predictor 作者想做的是网络超参和网络结构的联合搜索,并且定义了如下的网络结构的候选值以及超参的候选值 给定搜索空间
Ω,以及计算资源
C,超参和网络搜索的目标如下: 并且作者在正文中说到: The search space
Ω is typ
阅读全文
摘要:EVALUATING THE SEARCH PHASE OF NEURAL ARCHITECTURE SEARCH predictor的输入的形式 predictor的结构 predictor输出的结果和实际的表现对比 作者说之前评价NAS是否好都是在下游任务上进行对比,但是效率比较低。这篇文章作者
阅读全文
摘要:我们想要的结果 predictor的输入的形式 predictor的结构 predictor输出的结果和实际的表现对比 Efficient Sample-based Neural Architecture Search with Learnable Predictor 这篇文章做了啥 作者说之前的方
阅读全文
摘要:ACCELERATING NEURAL ARCHITECTURE SEARCH USING PERFORMANCE PREDICTION 17年的paper,作者说一个标准的常见的回归模型,使用基于网络结构的特征,就可以预测非充分训练的模型的最终表现。作者说他们的模型可以比主流的BO,更加高效,更加
阅读全文
摘要:再读autoaug 算法总览 使用RNN做controller,并且每次采样得到一个policy
S,其中
S包括使用哪种operation(数据增强操作),幅度是多少,以及应用的概率 用validation上的精度
R作为reward 作者的搜索空间定为 policy 由5种sub-p
阅读全文
摘要:Fast AutoAugment 作者说他提出一种基于稠密匹配的快速的AA方法。这种方法不需要子模型(child model)的重新训练。这种方法通过最大化匹配augmentated split和另外一个unaugmented split的分布来搜索增强的策略。 在这篇文章中,作者提出的方法学习一种
阅读全文
摘要:object as point阅读笔记 这篇文章做了啥 作者的主要动机是,绝大多数的object detectors都几近枚举大量的潜在的物体locations并且对他们进行分类。这种方式是非常浪费的,不足够的,以及需要额外的后处理。在这篇文章中,我们采用了一种不一样的方法。作者将物体建模为一个点,
阅读全文
摘要:REDUCING THE SEARCH SPACE FOR HYPERPARAMETER OPTIMIZATION USING GROUP SPARSITY 这篇文章做了啥 作者提出了一个新的方法,这个新的方法可以用在机器学习中的超参选择上面。实际上作者是对于harmonica算法的修改,harmo
阅读全文
摘要:Hardware-in-the-loop End-to-end Optimization of Camera Image Processing Pipelines阅读笔记 这篇文章干了啥 作者在abstract中说, we present a hardware-in-the-loop method
阅读全文
摘要:Rank loss调研 A Generic Graph-based Neural Architecture Encoding Scheme for Predictor-based NAS这一篇文章对于rank loss有着详细的介绍。作者在真正做实验的时候,使用了好几种rank相关的loss,最后发
阅读全文