1.编译报错为make[2]: *** 没有规则可制作目标“/home/ceshi/workspace/paddle_inference/third_party/install/onednn/lib/libmkldnn.so.0”,由“ppocr” 需求。
下载paddle编译库但是编译的时候会缺少东西
报错信息为make[2]: *** 没有规则可制作目标“/home/ceshi/workspace/paddle_inference/third_party/install/onednn/lib/libmkldnn.so.0”,由“ppocr” 需求。
需要去fastdelpy
https://github.com/PaddlePaddle/FastDeploy/blob/develop/docs/cn/build_and_install/download_prebuilt_libraries.md
在对应的paddle_infrene中的这个路径下
直接拷贝过去就可以了
2*** 没有规则可制作目标“/lib/libnvinfer.so”,由“ppocr” 需求。
编译缺少trt的依赖,使用下面的编译就可以了最好使用静态库
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 | OPENCV_DIR=/home/ceshi/workspace/opencv347 LIB_DIR=/home/ceshi/workspace/paddle_inference CUDA_LIB_DIR=/usr/local/cuda-12.3/lib64 CUDNN_LIB_DIR=/usr/local/cuda-12.3/lib64 TENSORRT_DIR=/home/ceshi/opt/TensorRT-8.6.1.6 BUILD_DIR=build # rm -rf ${BUILD_DIR} # mkdir ${BUILD_DIR} cd ${BUILD_DIR} cmake .. \ -DPADDLE_LIB=${LIB_DIR} \ -DWITH_MKL=ON \ -DWITH_GPU=ON \ -DWITH_STATIC_LIB=OFF \ -DWITH_TENSORRT=ON \ -DOPENCV_DIR=${OPENCV_DIR} \ -DCUDNN_LIB=${CUDNN_LIB_DIR} \ -DCUDA_LIB=${CUDA_LIB_DIR} \ -DTENSORRT_DIR=${TENSORRT_DIR} \ make -j |
3.报错没有环境变量这个最简单添加环境变量
1 | export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/ceshi/workspace/paddle_inference/third_party/install/onednn/lib:/home/ceshi/workspace/paddle_inference/third_party/install/mklml/lib |
4.没用使用上GPU
需要更改代码对应位置改为true
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 25岁的心里话
· 按钮权限的设计及实现