2018年12月13日

摘要: ■ 论文 | Attention Is All You Need ■ 链接 | https://www.paperweekly.site/papers/224 ■ 源码 | https://github.com/Kyubyong/transformer ■ 论文 | Weighted Transfo 阅读全文
posted @ 2018-12-13 17:45 rosyYY 阅读(22471) 评论(1) 推荐(2) 编辑
 
摘要: https://blog.csdn.net/liuchonge/article/details/73610734 https://blog.csdn.net/triplemeng/article/details/78269127 -- https://github.com/triplemeng/hi 阅读全文
posted @ 2018-12-13 16:24 rosyYY 阅读(959) 评论(0) 推荐(0) 编辑
 
摘要: https://blog.csdn.net/wangyangzhizhou/article/details/76651116 共三篇 RNN的模型展开后多个时刻隐层互相连接,而所有循环神经网络都有一个重复的网络模块,RNN的重复网络模块很简单,如下下图,比如只有一个tanh层。 而LSTM的重复网络 阅读全文
posted @ 2018-12-13 14:31 rosyYY 阅读(1383) 评论(0) 推荐(0) 编辑