摘要: 背景 基于前两篇文章数据预处理和数据集构造的过程后,可以开始针对我们的文本摘要任务进行处理了。这里选用的是经典的seq2seq+attention模型,作为我们的baseline,先完成一个跑通吧。后续基于seq2seq进行其他改进。 核心内容  seq2seq模型的理论,此处不再介绍。简 阅读全文
posted @ 2021-06-26 17:30 温良Miner 阅读(936) 评论(0) 推荐(0) 编辑
分享到: