摘要: 背景 前一篇文章中,采用了在当前比较主流的Transformer模型,Transformer模型本质来看是基于Encoder-Decoder框架,其解码方式本质上和seq2seq模型的解码方式基本相同。seq2seq的重要缺陷之一在于其不具备生成能力,而PGN模型具备着良好的生成能力。因此,本文拟结 阅读全文
posted @ 2021-08-27 21:54 温良Miner 阅读(505) 评论(0) 推荐(1) 编辑
分享到: