搭建fast-whisper 环境时报错 Unable to load any of {libcudnn_ops.so.9.1.0, libcudnn_ops.so.9.1, libcudnn_ops.so.9, libcudnn_ops.so}
fast-whisper 官网地址:https://github.com/SYSTRAN/faster-whisper
搭建环境时,按照官方的创建环境要求执行的
- 使用
conda create -n fast_whisper python=3.9
创建虚拟环境 - 执行
pip install faster-whisper
安装库 pip install nvidia-cublas-cu12 nvidia-cudnn-cu12==8.*
- 降低numpy版本,fast-whisper只能基于numpy 1.* 版本
关于linux上创建虚拟环境可以参考 https://zhuanlan.zhihu.com/p/440548295
在运行示例的时候报错如下:
代码如下:
from faster_whisper import WhisperModel model_size = "large-v3" # Run on GPU with FP16 model = WhisperModel(model_size, device="cuda", compute_type="float16") # or run on GPU with INT8 # model = WhisperModel(model_size, device="cuda", compute_type="int8_float16") # or run on CPU with INT8 # model = WhisperModel(model_size, device="cpu", compute_type="int8") segments, info = model.transcribe("test_wavs/whisper_test.wav", beam_size=5) print("Detected language '%s' with probability %f" % (info.language, info.language_probability)) for segment in segments: print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
原因应该是没有安装cudnn相关库。
方法一:
下载cudnn安装包
去官网下载了对应的cudnn安装包,网址如下:https://developer.nvidia.com/rdp/cudnn-archive#a-collapse805-111
选择对应的linux x86_64版本下载。
解压安装
参考https://zhuanlan.zhihu.com/p/701577195
方法二:
直接在创建的虚拟环境中执行conda install cudnn
然后再运行即可运行成功。
我这边直接在虚拟环境中执行方法二后,程序即成功运行了,故此没有再继续验证方法一。
分类:
python
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek-R1本地部署如何选择适合你的版本?看这里
· 传国玉玺易主,ai.com竟然跳转到国产AI
· 揭秘 Sdcb Chats 如何解析 DeepSeek-R1 思维链
· 自己如何在本地电脑从零搭建DeepSeek!手把手教学,快来看看! (建议收藏)
· 我们是如何解决abp身上的几个痛点