会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
美熙科技说
大模型
博客园
首页
新随笔
新文章
联系
订阅
管理
2023年3月19日
基于Pytorch2对比 FlashAttention、Memory-Efficient Attention、CausalSelfAttention
摘要: 本文主要是Pytorch2.0 的小实验,在MacBookPro 上体验一下等优化改进后的Transformer Self Attention的性能,具体的有 FlashAttention、Memory-Efficient Attention、CausalSelfAttention 等。主要是tor
阅读全文
posted @ 2023-03-19 19:51 写bug的程旭源
阅读(895)
评论(0)
推荐(0)
编辑