llama-cpp-python web server cuda 编译安装简单说明
llama-cpp-python 推荐的玩法是自己编译,以下是关于cuda 支持编译的简单说明
参考构建命令
- 命令
export CUDACXX=/usr/local/cuda-12.5/bin/nvcc # 此处核心是指定了nvcc 编译器路径,同时安装过cuda-drivers , 还需要配置环境变量
export PATH=$PATH:/usr/local/cuda-12.5/bin/
CUDACXX=/usr/local/cuda-12.5/bin/nvcc CMAKE_ARGS="-DLLAMA_CUDA=on -DLLAMA_CUBLAS=on -DLLAVA_BUILD=OFF -DCUDA_DOCKER_ARCH=compute_6" make GGML_CUDA=1
可能的问题
- 比如cuda 编译的DCUDA_DOCKER_ARCH变量
核心就是配置
Makefile:950: *** I ERROR: For CUDA versions < 11.7 a target CUDA architecture must be explicitly provided via environment variable CUDA_DOCKER_ARCH, e.g. by running "export CUDA_DOCKER_ARCH=compute_XX" on Unix-like systems, where XX is the minimum compute capability that the code needs to run on. A list with compute capabilities can be found here: https://developer.nvidia.com/cuda-gpus . Sto
说明
以上核心是关于cuda 编译参数的配置,如果有其他问题,可以参考以下链接
参考资料
https://github.com/ggerganov/llama.cpp/blob/master/docs/build.md
https://llmops-handbook.distantmagic.com/deployments/llama.cpp/aws-ec2-cuda.html
https://github.com/jetsonhacks/buildLibrealsense2TX/issues/13
https://stackoverflow.com/questions/72278881/no-cmake-cuda-compiler-could-be-found-when-installing-pytorch
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
2020-08-26 使用browserify 解决 graalvm js 引擎加载js 模块的问题
2020-08-26 java graalvm js 引擎加载js 模块试用
2020-08-26 java 集成graalvm js 引擎
2020-08-26 qlexpress 另外一个表达式引擎
2020-08-26 cratedb 4.2 发布了
2019-08-26 使用plotly dash-component-boilerplate 生成自己的组件
2019-08-26 podium layout 说明