Convex Regularization in Monte-Carlo Tree Search


发表时间:2021(ICML 2021)
文章要点:之前PUCT的MCTS收敛速度是多项式的,这篇文章提出了凸正则化的方式将收敛速度提高到了指数级。主要修改的是PUCT这个采样策略,以及Q value的更新方式。通过Legendre-Fenchel transform把学Q变成了学一个对偶Q函数,


Q的更新变成了

同时policy的学习改为

总结:基于Maximum Entropy Monte-Carlo Planning做的,里面的理论还要从这篇里找找。然后还有一些新知识,Tsallis entropy, Legendre-Fenchel transform,Bregman divergence。实验结果来看,也不是就完全比UCT好,有的好一点,有的也更差了。
疑问:其实理论很多都不懂,比如这个sampling policy为啥就写成这样了?证明也没看,现在看到证明就有点难受呀,感觉前面好多基本知识不了解,看不下去,不好的趋势啊。然后在Atari上做实验的时候,先用DQN预训练一个action value function给树搜索用,这是啥逻辑?就为了单比几种MCTS的优劣吗,不用MCTS结合RL来训?而且从结果看来,其实没有很大差别,几个算法都差不多。不过这个方式可能也说明了,以后所有RL的算法训练好了之后,其实都可以和MCTS套在一起,相当于多加了一层planning,只要解决model的问题,就可以无缝衔接了。

posted @ 2021-07-29 23:54  initial_h  阅读(109)  评论(0编辑  收藏  举报