c# onnx模型部署:TensorRT、OpenVino、ONNXRuntime、OpenCV dnn
摘要:无论用什么框架训练的模型,推荐转为onnx格式,方便部署。 支持onnx模型的框架如下: TensorRT:英伟达的,用于GPU推理加速。注意需要英伟达GPU硬件的支持。 OpenVino:英特尔的,用于CPU推理加速。注意需要英特尔CPU硬件的支持。 ONNXRuntime:微软,亚马逊 ,Fac
阅读全文
posted @
2024-09-02 10:06
NLazyo
阅读(522)
推荐(0) 编辑