Neural Turing Machine(NTM) - 神经图灵机
请直接参考:Neural Turing Machine(NTM) - 神经图灵机,本文只是进行补充
补充与总结:
- 向量
中的每个元素代表各个记忆与输入的相关程度。 - 定位机制(Addressing Mechanism)就是用于生成
- pytorch实现的NTM:https://github.com/loudinthecloud/pytorch-ntm
3.2 Location-based Addressing
“3.2 Location-based Addressing”公式显示有问题,下面进行重写:
Location-based Addressing包括下面三个步骤。
3.2.1. Interpolation(插值)
控制器生成一个阈值
这里的插值操作可以理解为LSTM的更新门,结合过去的w权值计算新的w
3.2.2. shift(偏移)
对于
这里的偏移操作在原文中用的是循环卷积(circular convolution)公式表示的,我们可以理解为把向量wgt首尾相连形成一个环状,然后在环中用st作为卷积核做一维卷积操作。本质上是假设当前元素与相邻的偏移元素相关。
3.2.3. Sharping(重塑)
当偏移操作中的权值比较平均的时候,上述的卷积操作会导致数据的分散(dispersion)和泄漏(leakage),就像把一个点的信息分散在三个点中,权值如果太平均会使三个点包含的值太模糊(个人理解),因此需要把权值大小的区别进行强化,也就是sharping。具体来说,控制器生成一个参数
最后我们得出了最终的w_t用于提取和储存记忆。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?