摘要:
前情提要: 前阵子,或许更早之前,笔者关于 MoE 的一些研究——如果称得上是研究,而非民科的话——让人不禁思考 Transformer 的知识到底存在哪里?这个问题的价值不言而喻,用来打发时间也是个不错的选择。 可惜的是,目前我关于它的思考仍旧十分细碎,或许也称不上有什么新意,这里只是做下暂且的梳 阅读全文
最新评论
- 1. Re:Fairseq 机器翻译全流程一文速通 (NMT, WMT, translation)
您好,可以麻烦问您一下您在使用COMET的时候有尝试本地下载后进行打分吗?我没办法在线下载,但是本地下载后一直出现报错,谢谢您~
- --时光以北