05 2024 档案

摘要:一、原因 VS配置问题,需保证以下是正确的: 在Release模式下编译,且要开启最大速度优化(/o2) 开启OpenMD支持 此时,匹配速度能从十几秒到200ms左右(原图:3072x 20248; 模板图:429x407),若想继续优化若按照这个指导配置还能减少几十毫秒。 阅读全文
posted @ 2024-05-16 08:56 珠峰上吹泡泡 阅读(56) 评论(0) 推荐(0) 编辑
摘要:一、问题复现 将模型放到GPU上推理时时发生的异常。 OrtSessionOptionsAppendExecutionProvider_CUDA(session_options, 0); ... ort_outputs = session_.Run(Ort::RunOptions{ nullptr 阅读全文
posted @ 2024-05-08 09:17 珠峰上吹泡泡 阅读(548) 评论(0) 推荐(0) 编辑
摘要:一、概念 静态Shape:指在网络执行阶段Tensor的shape没有发生变化; 动态Shape:指在网络执行阶段Tensor的shape发生变化。 二、动态shape引起的原因 输入shape不固定; 网络执行过程中有引发shape变化的API; 控制流不同分支引入shape上的变化。 三、规避策 阅读全文
posted @ 2024-05-07 19:14 珠峰上吹泡泡 阅读(305) 评论(0) 推荐(0) 编辑
摘要:一、 仓库地址 YOLOV8 二、数据预处理 2.1 将标注数据按照类别划分到不同的文件目录 # 单独筛选某一类缺陷 import numpy as np import os #shutil:操作多文件或者文件集合(复制、移除等) import shutil # # #作用: # 按照类别进行数据集 阅读全文
posted @ 2024-05-06 15:58 珠峰上吹泡泡 阅读(2184) 评论(1) 推荐(0) 编辑
摘要:1 原因 torchscript runtime在第一阶段会进行优化 2 解决办法 #include <torch/csrc/jit/python/update_graph_executor_opt.h> torch::jit::setGraphExecutorOptimize(false); 参考 阅读全文
posted @ 2024-05-03 17:54 珠峰上吹泡泡 阅读(238) 评论(0) 推荐(0) 编辑
摘要:1、原因 模型向GPU拷贝时发生异常 model = torch::jit::load(ptFile); if (isHalf) { model.to(torch::kHalf); } model.to(device);//GPU版异常,可能模型并没有完全放到GPU上 2、解决方法 model = 阅读全文
posted @ 2024-05-03 09:01 珠峰上吹泡泡 阅读(184) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示