会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
ZacksTang
博客园
首页
新随笔
联系
管理
订阅
2021年9月2日
NLP与深度学习(三)Seq2Seq模型与Attention机制
摘要: 1. Attention与Transformer模型 Attention机制与Transformer模型,以及基于Transformer模型的预训练模型BERT的出现,对NLP领域产生了变革性提升。现在在大型NLP任务、比赛中,基本很少能见到RNN的影子了。大部分是BERT(或是其各种变体,或者还加
阅读全文
posted @ 2021-09-02 00:45 ZacksTang
阅读(1942)
评论(0)
推荐(0)
编辑
公告