贝叶斯调参原理总结

超参数优化基本分为三类:网格搜索,随机搜索和贝叶斯调参

先上算法图:

  在调参过程中,在给定的数据集下,不同参数组合X_t=(x1,x2,..xn)和指定的目标函数(比如auc,msre)之间的函数关系为y = f(X),X是给定范围下的所有参数组合,S是采集函数,M是用来求后验概率p(y | X)的模型(一般选用的都是高斯模型)。  

  在BayesianOptimization 这个库,可以通过选择init_points指定算法开始时随机生成几组参数(比如t组),那么开始得到D1:t={(x1y1), (x2y2), …, (xtyt),我们认为y分布服从高斯分布,通过高斯过程得到(更新D后的y的条件概率分布p(y | Dt),有了条件概率分布就能得到f)目标函数的分布,采集函数又根据f,在开发和探索之间平衡,得到下一次最有可能最大化f的一组参数Xt+1,将这组参数加入Dt后得到Dt+1,将Dt+1带入高斯分布中计算得到下一轮的y的概率分布。

 

 

参考:

贝叶斯,网格搜索,随机搜索简单应用:https://www.jianshu.com/p/5378ef009cae

贝叶斯python库github地址:https://github.com/fmfn/BayesianOptimization

贝叶斯调参原理:

1、原理详细介绍:http://www.jos.org.cn/html/2018/10/5607.htm#outline_anchor_5

2、高斯过程与采集函数关系:https://www.jianshu.com/p/5378ef009cae

 3、暂时没看懂的强大而精致的介绍:https://www.cnblogs.com/yangruiGB2312/p/9374377.html

 

posted @ 2019-05-03 16:14  IcarusYu  阅读(3579)  评论(0编辑  收藏  举报