ICANN 2001-Learning to Learn Using Gradient Descent

Key

Gradient Descent+LSTM元学习器

解决的主要问题

  • 在之前的机器学习的学习方法中,不会利用到之前的经验,利用到之前经验的“knowledge transfer”(元学习是其中一个)。meta-learner会搜索并找到适合特定学习任务的学习算法。要想有这样的学习方法,必须增加一个监督算法来审查和修改训练算法。现有的方法中是存在“人作为监督器”。
     作者主要是通过适当的系统替换人体部分,自动获得这种学习方法的改进。

  • 处理多个自由参数


文章内容

  • Introduction

     介绍元学习系统的组成:固定的监督系统和可调整的从属系统

  • Theoretical considerations

    • 数据如何设置

      • 从属系统input:y(j-1),x(j)
      • 监督属系统input:y(j),x(j),output(从属系统)

      如果元学习系统输出不是正确的target y(j),元学习系统就会在每个时间点受到惩罚,这就迫使元学习系统对从属算法进行改进,使其变得更快更准确

    • 为何选择循环架构LSTM
      (公式推导没看懂)
      查阅资料上的理解:考虑到梯度爆炸和梯度消失现象,所以使用LSTM

    • 从bayes角度理解
      元学习可以被视为不断地适应和移动超参数和先验(“归纳偏差移动”)

  • Experiments

    分别实验布尔函数、半线性函数、二次函数

  • Conclusion

    以前的元学习方法对于大量的系统参数是不可行的。为了处理多个自由参数,提出了利用递归网的梯度下降法在元学习中的应用。
    理论分析表明,LSTM是一种良好的元学习者,实验也证实了这一点。通过一个LSTM网络,我们的系统得到了一个学习算法,可以在35个例子后近似任何二次函数。
    该方法需要一个单一的训练序列,因此,它可能适用于终身学习和自主机器人。
    提出的元学习器能够进行非平稳时间序列预测。我们演示了机器如何从零开始推导出新颖、快速的算法


文章方法的优缺点

  • 优点
    • 对于含有大量参数的系统,梯度下降处理会比较容易
    • LSTM会利用之前经验信息
  • 缺点
    • 基于上下文的,RL中在处理的时候需要一个完整episode

论文链接
[版权归原作者 Lee_ing 所有]
未经原作者允许不得转载本文内容,否则将视为侵权;

posted @ 2022-05-07 17:05  lee_ing  阅读(42)  评论(0编辑  收藏  举报