AzkaBan  

2019年9月10日

摘要: 原文地址: https://terrifyzhao.github.io/2019/01/04/Attention模型详解.html attention是一种能让模型对重要信息重点关注并充分学习吸收的技术,它不算是一个完整的模型,应当是一种技术,能够作用于任何序列模型中。 传统Seq2Seq 在开始讲 阅读全文
posted @ 2019-09-10 14:36 AzkaBan 阅读(302) 评论(0) 推荐(0) 编辑
 
摘要: 原文地址: https://terrifyzhao.github.io/2019/01/11/Transformer模型详解.html Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN ,目前大热的Bert就是基于Transformer构建的,这个模型广泛应用于NLP领 阅读全文
posted @ 2019-09-10 14:35 AzkaBan 阅读(982) 评论(0) 推荐(0) 编辑