ubuntu20.04
-
c++ 版本的centerpoint 推理
cd /home/oem/lg/project/centerpoint_cpp/CenterPointTensorRT-master/src/build
cmake ..
make
./centerpoint
-
python 版本的centerpoint 推理
cd /home/oem/lg/project/centerpoint_pro/python_center_point/CenterPoint1
conda activate py36
python demo1.py
-
windows 下的项目交接
- 因为onnxruntime 推理的库文件与robosense 的驱动文件有冲突,onnxruntime 需要与激光的驱动解耦,
解耦之后再编译
c++ 推理onnx模型有两种方法
1. 直接用onnxruntime 进行推理,这种推理方式需要与激光的驱动解耦,windows下demo是 "D:\spaceos_onnx\onnx_infer_vs"
2. 用opencv调用onnx模型的demo是 "D:\spaceos_onnx\onnx_infer_vs15"
spacenet 触发调用onnx模型
"D:\spaceos_onnx\space_lw\spaceos"
如何用visual studio 2019配置OnnxRuntime, 用的是nupkg,也可以直接下载onnx动态库 配置OnnxRuntime