会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
CV技术指南(微信公众号)
博客园
首页
新随笔
联系
订阅
管理
2023年10月31日
比Transformer更好,无Attention、MLPs的BERT、GPT反而更强了
摘要: 前言 本文探索了 Monarch Mixer (M2) ,这是一种在序列长度和模型维度上都是次二次的新架构,并且在现代加速器上具有很高的硬件效率。 本文转载自机器之心 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。
阅读全文
posted @ 2023-10-31 12:57 CV技术指南(公众号)
阅读(91)
评论(0)
推荐(0)
编辑
公告