2、Jetson部署
系列博客目录:
----------------------------------------------------------- 正文 -------------------------------------------------------------------
jetson-inference是用在NVIDIA Jetson设备上的深度学习推理框架,支持C++和Python。具体任务如下:
- 图像分类 (imageNet)
- 目标检测 (detectNet)
- 语义分割 (segNet)
- 姿态估计 (poseNet)
- 动作识别 (actionNet)
以下内容中,【Jetson】指ARM64平台,【主机】指AMD64平台。Jetson只用来推理,训练在主机上训练,因此Jetson不安装Pytorch
先验证Jetson环境是否配置好:
- 【Jetson】获取jetson-inference源码,编译安装
- 【主机】下载模型,利用pytorch转onnx
- 将onnx拷贝到【Jetson】,转trt,推理测试
正式开发自己的C++程序、训练自己的模型:
- 【主机】CLion创建C++项目
- 【主机】交叉编译为ARM64程序,拷贝到【Jetson】
- 【主机】训练自己的模型,pt或pth转onnx
- 将onnx拷贝到【Jetson】,转trt,推理测试
1、验证Jetson环境
1.1 【Jetson】获取jetson-inference源码,编译安装
git clone https://github.com/dusty-nv/jetson-inference #或者从国内镜像下载 #git clone https://gitcode.com/gh_mirrors/je/jetson-inference
编辑jetson-inference/CMakePreBuild.sh。把./download-models.sh和./install-pytorch.sh注释掉,既不下载模型也不安装pytorch
cd jetson-inference #进入jetson-inference文件夹 git submodule update --init mkdir build #创建build文件夹 cd build #进入build cmake ../ #自动执行上一级目录下面的 CMakePreBuild.sh make -j4
参考此博客的4.1 Jetson Nano目标检测手把手实战教程(pytorch训练、tensorrt推理,含完整代码和数据)_pdf 下载人工智能边缘计算开发实战 基于nvidia jetson nano-CSDN博客
参考 5.Jetson Nano之TensorRT 环境搭建(jetson-inference)
参考 AI学习库的安装jetson-inference(国内详细教程) - Yimiu - 博客园
整个过程遇到的一些问题解决办法 jetson-inference 项目常见问题解决方案-CSDN博客
待更新---
2、开发自己的C++程序、训练自己的模型
待更新---
参考源码里的说明 jetson-inference-master\docs\imagenet-example-2.md
【其他部署方式】
Jetson嵌入式系列模型部署-1_onnx部署jetsonnano-CSDN博客 ,右下角,专栏目录
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
2024-01-17 exe重启自己,WinExec非阻塞、system阻塞
2020-01-17 函数返回值是引用类型,此函数当左值、右值
2019-01-17 5.2 SW1控制LED1亮灭(中断功能)