tensorrt与tvm
tensorrt 和tvm都是用于训练后模型的部署的,它们能够多模型进行量化、算子融合等,使模型运行更快。
如果采用GPU硬件平台,一般会使用TensorRT方式部署,因为TensorRT能够充分发挥GPU平台的性能,同时也做了很多的优化(算子融合,量化等),所以在性能上有比较大的优势。不过,TensorRT是闭源的,用户无法知道Nvidia究竟做了什么。
与TensorRT相对标的一个开源项目就是陈天奇搞的TVM项目,目前正在不断迭代中,它的目标也是解决训练模型部署的问题,支持的硬件的平台包括了X86、ARM以及GPU。
tensorrt可无缝对接tensorflow模型,但是pytorch需要先转成onnx格式,才能对接tensorrt。
参考:http://events.jianshu.io/p/071abf40bc0a
posted on 2021-12-30 10:46 MissSimple 阅读(512) 评论(0) 编辑 收藏 举报