会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
吃瓜的哲学
好好学习,天天向上!
博客园
首页
新随笔
联系
订阅
管理
2024年9月21日
自注意力机制(1)-单头自注意层
摘要: 自注意机制 1. 自注意机制的特点 考虑这样一个问题,输入长度为m的序列\(\{x_1, x_2,...,x_m\}\),序列中的元素都是向量,要求输出长度同样为m的序列\(\{c_1, c_2,...,c_m\}\),另外还有两个要求: 序列的长度m是不确定的,可以动态变化,但是神经网络的参数数量
阅读全文
posted @ 2024-09-21 11:44 吃瓜的哲学
阅读(66)
评论(0)
推荐(0)
编辑
公告