2、Jetson部署

系列博客目录:

----------------------------------------------------------- 正文 -------------------------------------------------------------------

jetson-inference是用在NVIDIA Jetson设备上的深度学习推理框架,支持C++和Python。具体任务如下:

  • 图像分类 (imageNet)
  • 目标检测 (detectNet)
  • 语义分割 (segNet)
  • 姿态估计 (poseNet)
  • 动作识别 (actionNet)

以下内容中,【Jetson】指ARM64平台,【主机】指AMD64平台。Jetson只用来推理,训练在主机上训练,因此Jetson不安装Pytorch

先验证Jetson环境是否配置好:

  • 【Jetson】获取jetson-inference源码,编译安装
  • 【主机】下载模型,利用pytorch转onnx
  • 将onnx拷贝到【Jetson】,转trt,推理测试

正式开发自己的C++程序、训练自己的模型:

  • 【主机】CLion创建C++项目
  • 【主机】交叉编译为ARM64程序,拷贝到【Jetson】
  • 【主机】训练自己的模型,pt或pth转onnx
  • 将onnx拷贝到【Jetson】,转trt,推理测试

1、验证Jetson环境

1.1 【Jetson】获取jetson-inference源码,编译安装

git clone https://github.com/dusty-nv/jetson-inference
#或者从国内镜像下载
#git clone https://gitcode.com/gh_mirrors/je/jetson-inference

编辑jetson-inference/CMakePreBuild.sh。把./download-models.sh和./install-pytorch.sh注释掉,既不下载模型也不安装pytorch

cd jetson-inference     #进入jetson-inference文件夹
git submodule update --init
mkdir build             #创建build文件夹
cd build                #进入build
cmake ../               #自动执行上一级目录下面的 CMakePreBuild.sh
make -j4

参考此博客的4.1 Jetson Nano目标检测手把手实战教程(pytorch训练、tensorrt推理,含完整代码和数据)_pdf 下载人工智能边缘计算开发实战 基于nvidia jetson nano-CSDN博客

参考 5.Jetson Nano之TensorRT 环境搭建(jetson-inference)

参考 AI学习库的安装jetson-inference(国内详细教程) - Yimiu - 博客园

 

整个过程遇到的一些问题解决办法 jetson-inference 项目常见问题解决方案-CSDN博客

待更新---

2、开发自己的C++程序、训练自己的模型

 待更新---

参考源码里的说明 jetson-inference-master\docs\imagenet-example-2.md

 

 

【其他部署方式】

Jetson嵌入式系列模型部署-1_onnx部署jetsonnano-CSDN博客 ,右下角,专栏目录

Jetson Orin NANO

 

posted @   夕西行  阅读(35)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
历史上的今天:
2024-01-17 exe重启自己,WinExec非阻塞、system阻塞
2020-01-17 函数返回值是引用类型,此函数当左值、右值
2019-01-17 5.2 SW1控制LED1亮灭(中断功能)
点击右上角即可分享
微信分享提示