摘要: 在https://github.com/Dao-AILab/flash-attention/releases找到对应pytorch和cuda版本进行下载whl文件,然后通过pip install xxx.whl进行安装。 阅读全文
posted @ 2024-06-04 14:57 Shiyu_Huang 阅读(443) 评论(0) 推荐(0) 编辑