摘要:
原文地址: https://terrifyzhao.github.io/2019/01/04/Attention模型详解.html attention是一种能让模型对重要信息重点关注并充分学习吸收的技术,它不算是一个完整的模型,应当是一种技术,能够作用于任何序列模型中。 传统Seq2Seq 在开始讲
阅读全文
摘要:
原文地址: https://terrifyzhao.github.io/2019/01/11/Transformer模型详解.html Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN ,目前大热的Bert就是基于Transformer构建的,这个模型广泛应用于NLP领
阅读全文