rapidocr_paddle[gpu]:GPU端推理库来了

1|0简介

rapidocr_paddle系列包是基于PaddlePaddle框架作为推理引擎的,支持CPU和GPU上推理。值得说明的是,这个包和PaddleOCR相比,代码基本都是一样的,只不过这个库将里面核心推理代码抽了出来,更加精简而已。

推荐GPU上用这个,CPU端还是以rapidocr_onnxruntimerapidocr_openvino为主。毕竟PaddlePaddle的CPU端还是比较重的。

封装这个包的原因是为了弥补GPU端推理的空缺。因为面对成千上万的图像需要提取文字时,CPU端上推理速度还是较慢,不能满足需求。

2|0安装

  1. 根据自己需求,先安装 PaddlePaddle 框架(CPU/GPU),并验证,参见: 官方教程,注意验证是否安装成功:

    import paddle print(paddle.utils.run_check()) # 如果出现PaddlePaddle is installed successfully!,说明您已成功安装。
  2. 安装rapidocr_paddle

    pip install rapidocr_paddle

3|0使用

3|1CPU 端推理

前提是安装了 CPU 版的 PaddlePaddle

import cv2 from rapidocr_paddle import RapidOCR engine = RapidOCR() image_path = "tests/test_files/ch_en_num.jpg" result, elapse_list = engine(image_path) print(result) print(elapse_list)

3|2GPU 端推理

前提是安装了 GPU 版的 PaddlePaddle,注意在实例化RapidOCR类时,需要通过参数显式指定使用 GPU。

import cv2 from rapidocr_paddle import RapidOCR # 注意这里的参数 engine = RapidOCR(det_use_cuda=True, cls_use_cuda=True, rec_use_cuda=True) image_path = "tests/test_files/ch_en_num.jpg" result, elapse_list = engine(image_path)

其他使用详情,同rapidocor_onnxruntime系列,参见: link

3|3推理速度比较

相关测评代码,参见AI Studio,Fork 可直接运行查看。

经过初步粗略估计,同一张图像,推理 10 次,耗时情况见下表:

推理库 平均耗时(s/img) 备注
rapidocr_onnxruntime 1.6505
rapidocr_paddle[GPU] 0.0508 V100 16G

原文链接:https://rapidai.github.io/RapidOCRDocs/docs/install_usage/rapidocr_paddle/


__EOF__

本文作者Danno
本文链接https://www.cnblogs.com/shiwanghualuo/p/17781341.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。您的鼓励是博主的最大动力!
posted @   Danno  阅读(193)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
点击右上角即可分享
微信分享提示