flash-attention安装

在https://github.com/Dao-AILab/flash-attention/releases找到对应pytorch和cuda版本进行下载whl文件,然后通过pip install xxx.whl进行安装。
posted @ 2024-06-04 14:57  Shiyu_Huang  阅读(1421)  评论(0编辑  收藏  举报