摘要: 参考这篇文章: https://blog.csdn.net/mijiaoxiaosan/article/details/73251443 看了下: 最核心的如下:其最重要的创新应该就是Self-Attention的使用级联的多头attention架构。 两点:multi-head attention 阅读全文
posted @ 2018-12-02 23:48 blcblc 阅读(538) 评论(0) 推荐(0) 编辑
摘要: 这篇文章看起来很不错: https://blog.csdn.net/qq_39521554/article/details/83062188 仔细看看。 也可以看这个github,一样的文章: https://github.com/Y1ran/NLP-BERT--ChineseVersion 阅读全文
posted @ 2018-12-02 17:07 blcblc 阅读(1091) 评论(0) 推荐(0) 编辑