会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
《》
博客园
首页
新随笔
联系
管理
订阅
2022年12月1日
回顾一下transformer-Transformer 详解
摘要: Transformer 是谷歌大脑在 2017 年底发表的论文attention is all you need中所提出的 seq2seq 模型。现在已经取得了大范围的应用和扩展,而 BERT 就是从 Transformer 中衍生出来的预训练语言模型 这篇文章分为以下几个部分: Transform
阅读全文
posted @ 2022-12-01 23:14 时光如你般美好
阅读(231)
评论(0)
推荐(0)
编辑
公告
、