会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
温良
技术自留地
格物致知,天道酬勤
写文章
博客园
我的首页
写博客
私信我
RSS订阅
闪存
我关注
后台管理
GUI配置
博文列表
网摘夹
文件
相册
温良Miner
温一壶月光下酒
博客园
首页
新随笔
联系
订阅
管理
2021年8月27日
【文本摘要项目】7-性能提升之基于Transformer的PGN模型
摘要: 背景 前一篇文章中,采用了在当前比较主流的Transformer模型,Transformer模型本质来看是基于Encoder-Decoder框架,其解码方式本质上和seq2seq模型的解码方式基本相同。seq2seq的重要缺陷之一在于其不具备生成能力,而PGN模型具备着良好的生成能力。因此,本文拟结
阅读全文
posted @ 2021-08-27 21:54 温良Miner
阅读(505)
评论(0)
推荐(1)
编辑
分享到: