搭建fast-whisper 环境时报错 Unable to load any of {libcudnn_ops.so.9.1.0, libcudnn_ops.so.9.1, libcudnn_ops.so.9, libcudnn_ops.so}

fast-whisper 官网地址:https://github.com/SYSTRAN/faster-whisper

搭建环境时,按照官方的创建环境要求执行的

  1. 使用conda create -n fast_whisper python=3.9创建虚拟环境
  2. 执行pip install faster-whisper 安装库
  3. pip install nvidia-cublas-cu12 nvidia-cudnn-cu12==8.*
  4. 降低numpy版本,fast-whisper只能基于numpy 1.* 版本

关于linux上创建虚拟环境可以参考 https://zhuanlan.zhihu.com/p/440548295

在运行示例的时候报错如下:
image

代码如下:

from faster_whisper import WhisperModel
model_size = "large-v3"
# Run on GPU with FP16
model = WhisperModel(model_size, device="cuda", compute_type="float16")
# or run on GPU with INT8
# model = WhisperModel(model_size, device="cuda", compute_type="int8_float16")
# or run on CPU with INT8
# model = WhisperModel(model_size, device="cpu", compute_type="int8")
segments, info = model.transcribe("test_wavs/whisper_test.wav", beam_size=5)
print("Detected language '%s' with probability %f" % (info.language, info.language_probability))
for segment in segments:
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))

原因应该是没有安装cudnn相关库。

方法一:

下载cudnn安装包

去官网下载了对应的cudnn安装包,网址如下:https://developer.nvidia.com/rdp/cudnn-archive#a-collapse805-111
image
选择对应的linux x86_64版本下载。

解压安装

参考https://zhuanlan.zhihu.com/p/701577195

方法二:

直接在创建的虚拟环境中执行conda install cudnn
然后再运行即可运行成功。

我这边直接在虚拟环境中执行方法二后,程序即成功运行了,故此没有再继续验证方法一。

posted @   Kevinarcsin001  阅读(836)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek-R1本地部署如何选择适合你的版本?看这里
· 传国玉玺易主,ai.com竟然跳转到国产AI
· 揭秘 Sdcb Chats 如何解析 DeepSeek-R1 思维链
· 自己如何在本地电脑从零搭建DeepSeek!手把手教学,快来看看! (建议收藏)
· 我们是如何解决abp身上的几个痛点
点击右上角即可分享
微信分享提示