随笔 - 272  文章 - 7  评论 - 27  阅读 - 83万

c# onnx模型部署:TensorRT、OpenVino、ONNXRuntime、OpenCV dnn

无论用什么框架训练的模型,推荐转为onnx格式,方便部署。

支持onnx模型的框架如下:

  • TensorRT:英伟达的,用于GPU推理加速。注意需要英伟达GPU硬件的支持。
  • OpenVino:英特尔的,用于CPU推理加速。注意需要英特尔CPU硬件的支持。
  • ONNXRuntime:微软,亚马逊 ,Facebook 和 IBM 等公司共同开发的,可用于GPU、CPU
  • OpenCV dnn:OpenCV的调用模型的模块

pt格式的模型,可以用Pytorch框架部署。

推理效率上:TensorRT>OpenVino>ONNXRuntime>OpenCV dnn>Pytorch

由于电脑只有CPU,因此研究下OpenVino、ONNXRuntime、OpenCV dnn的C++使用。

https://blog.csdn.net/grape_yan/article/details/130241872

 

部署TensorRT可参考:

https://blog.csdn.net/Grape_yan/article/details/127320959

https://blog.csdn.net/grape_yan/article/details/130241872

posted on   NLazyo  阅读(522)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· SQL Server 2025 AI相关能力初探
· 单线程的Redis速度为什么快?
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
历史上的今天:
2011-09-02 键值
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示