摘要: 谷歌研究人员在《Universal Transformers》一文中使用一种新型高效的时间并行循环(parallel-in-time recurrence)方式(可在更广泛任务上产生更强大的结果)把标准 Transformer 扩展为计算通用(图灵完备)模型。研究者将该模型建立在 Transform 阅读全文
posted @ 2018-08-19 22:33 马兹 阅读(112) 评论(0) 推荐(0) 编辑