10.6.3 位置编码

注意CNN也是有位置信息的,同一个卷积运算中可能没有位置信息,但是不同卷积运算由于窗口的移动,也是有位置信息的

正文的第一句话“在处理词元序列时,循环神经网络是逐个的重复地处理词元的, 而自注意力则因为并行计算而放弃了顺序操作。”的意思见10.6.1的博文。所以自注意力丢失了对序列固有顺序的显式依赖,需要通过其他方式(如位置编码)来补充位置信息

代码中“足够长”的意思就是字面意思,然后后面就可以切片来截取一部分,即X = X + self.P[:, :X.shape[1], :].to(X.device)
画的那个图的意思看了“绝对位置信息”就懂了
对于P,列数j越大,频率越低,也就是在模拟二进制表示中的更高位,所以P的每一行的值可以近似某一个数的二进制表示

为什么要看相对位置呢?实际上肯定是相对位置更重要一些,很简单的一个例子,比如说我们随意切分句子,都可以当做语言模型的输入。我们的模型学的就是wj,所以用三角函数就很好

posted @   最爱丁珰  阅读(3)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构
历史上的今天:
2024-02-24 Construct Tree
2024-02-24 Construct Matrix
2024-02-24 Yet Another Inversions Problem
2024-02-24 Watering an Array
2024-02-24 Erase First or Second Letter
点击右上角即可分享
微信分享提示