摘要: 论文地址: "https://arxiv.org/abs/1911.04474" Abstract BiLSTMs结构在NLP的任务中广泛应用,最近,全连接模型Transformer大火,它的 self attention 机制和强大的并行计算能力使其在众多模型中脱颖而出,但是,原始版本的 Tran 阅读全文
posted @ 2020-04-27 21:35 TABball 阅读(2655) 评论(0) 推荐(0) 编辑