05 2021 档案

NSGA-NET中的micro内部细节搜索
摘要:NSGA-NET中的micro内部细节搜索 micro做了啥 这篇文章的micro采用的是nasnet的搜索目标以及编码方式,只不过nasnet采用的是强化学习(如下图所示),作者这里将其更改为ea相关的算法来进行优化。搜索的目标主要是一个normal cell和一个reduction cell,构 阅读全文

posted @ 2021-05-26 14:12 YongjieShi 阅读(250) 评论(2) 推荐(1) 编辑

fbnetv3中的predictor
摘要:fbnetv3中的predictor 作者想做的是网络超参和网络结构的联合搜索,并且定义了如下的网络结构的候选值以及超参的候选值 给定搜索空间Ω,以及计算资源C,超参和网络搜索的目标如下: 并且作者在正文中说到: The search space Ω is typ 阅读全文

posted @ 2021-05-26 14:11 YongjieShi 阅读(140) 评论(0) 推荐(0) 编辑

TAPAS与EVALUATING THE SEARCH PHASE OF NEURAL ARCHITECTURE SEARCH阅读笔记
摘要:EVALUATING THE SEARCH PHASE OF NEURAL ARCHITECTURE SEARCH predictor的输入的形式 predictor的结构 predictor输出的结果和实际的表现对比 作者说之前评价NAS是否好都是在下游任务上进行对比,但是效率比较低。这篇文章作者 阅读全文

posted @ 2021-05-26 14:10 YongjieShi 阅读(87) 评论(0) 推荐(0) 编辑

Efficient Sample-based Neural Architecture Search with Learnable Predictor
摘要:我们想要的结果 predictor的输入的形式 predictor的结构 predictor输出的结果和实际的表现对比 Efficient Sample-based Neural Architecture Search with Learnable Predictor 这篇文章做了啥 作者说之前的方 阅读全文

posted @ 2021-05-26 14:09 YongjieShi 阅读(138) 评论(0) 推荐(0) 编辑

ACCELERATING NEURAL ARCHITECTURE SEARCH USING PERFORMANCE PREDICTION阅读笔记
摘要:ACCELERATING NEURAL ARCHITECTURE SEARCH USING PERFORMANCE PREDICTION 17年的paper,作者说一个标准的常见的回归模型,使用基于网络结构的特征,就可以预测非充分训练的模型的最终表现。作者说他们的模型可以比主流的BO,更加高效,更加 阅读全文

posted @ 2021-05-26 14:08 YongjieShi 阅读(100) 评论(0) 推荐(0) 编辑

再读autoaug
摘要:再读autoaug 算法总览 使用RNN做controller,并且每次采样得到一个policy S,其中S包括使用哪种operation(数据增强操作),幅度是多少,以及应用的概率 用validation上的精度R作为reward 作者的搜索空间定为 policy 由5种sub-p 阅读全文

posted @ 2021-05-26 14:07 YongjieShi 阅读(208) 评论(0) 推荐(0) 编辑

Fast AutoAugment阅读笔记
摘要:Fast AutoAugment 作者说他提出一种基于稠密匹配的快速的AA方法。这种方法不需要子模型(child model)的重新训练。这种方法通过最大化匹配augmentated split和另外一个unaugmented split的分布来搜索增强的策略。 在这篇文章中,作者提出的方法学习一种 阅读全文

posted @ 2021-05-26 14:06 YongjieShi 阅读(585) 评论(0) 推荐(0) 编辑

object as point阅读笔记
摘要:object as point阅读笔记 这篇文章做了啥 作者的主要动机是,绝大多数的object detectors都几近枚举大量的潜在的物体locations并且对他们进行分类。这种方式是非常浪费的,不足够的,以及需要额外的后处理。在这篇文章中,我们采用了一种不一样的方法。作者将物体建模为一个点, 阅读全文

posted @ 2021-05-26 14:05 YongjieShi 阅读(150) 评论(0) 推荐(0) 编辑

REDUCING THE SEARCH SPACE FOR HYPERPARAMETER OPTIMIZATION USING GROUP SPARSITY阅读笔记
摘要:REDUCING THE SEARCH SPACE FOR HYPERPARAMETER OPTIMIZATION USING GROUP SPARSITY 这篇文章做了啥 作者提出了一个新的方法,这个新的方法可以用在机器学习中的超参选择上面。实际上作者是对于harmonica算法的修改,harmo 阅读全文

posted @ 2021-05-26 14:04 YongjieShi 阅读(110) 评论(0) 推荐(0) 编辑

Hardware-in-the-loop End-to-end Optimization of Camera Image Processing Pipelines阅读笔记
摘要:Hardware-in-the-loop End-to-end Optimization of Camera Image Processing Pipelines阅读笔记 这篇文章干了啥 作者在abstract中说, we present a hardware-in-the-loop method 阅读全文

posted @ 2021-05-26 14:03 YongjieShi 阅读(434) 评论(0) 推荐(0) 编辑

Rank loss调研
摘要:Rank loss调研 A Generic Graph-based Neural Architecture Encoding Scheme for Predictor-based NAS这一篇文章对于rank loss有着详细的介绍。作者在真正做实验的时候,使用了好几种rank相关的loss,最后发 阅读全文

posted @ 2021-05-26 14:01 YongjieShi 阅读(471) 评论(0) 推荐(0) 编辑

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示