windows c++ onnx部署
参考https://blog.csdn.net/weixin_45493537/article/details/123829142
1,下载https://onnxruntime.ai/
2,先建一个文件夹,文件名可以随意C:\Users\27795\Desktop\cc,然后将nupkg文件拷贝进去(microsoft.ml.onnxruntime.1.7.0.nupkg),通过vs2019解析nupkg包 新建一个控制台应用程序,项目名称可以随意
3,选择 工具->NuGet管理包->程序包管理控制台,输入以下命令 Install-Package Microsoft.ML.OnnxRuntime -Source C:\Users\27795\Desktop\cc
4,看到在项目文件夹下生成Microsoft.ML.OnnxRuntime.1.7.0文件
5,将Microsoft.ML.OnnxRuntime.1.7.0直接拷贝到environment下面
6,包含目录 D:\environment\Microsoft.ML.OnnxRuntime.1.15.1\build\native\include
库目录:D:\environment\Microsoft.ML.OnnxRuntime.1.15.1\runtimes\win-x64\native
链接器——输入——附加依赖项:onnxruntime.lib (路径:E:\Microsoft.ML.OnnxRuntime.1.5.0\runtimes\win-x64\native\下面)
7,还需要将onnxruntime.dll放入debug或者Release(这一步自己没有用到)
测试代码:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 | #include <iostream> #include <assert.h> #include <vector> #include <onnxruntime_cxx_api.h> #include <string> int main( int argc, char * argv[]) { Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test" ); Ort::SessionOptions session_options; session_options.SetIntraOpNumThreads(1); session_options.SetGraphOptimizationLevel(GraphOptimizationLevel::ORT_ENABLE_BASIC); const wchar_t * model_path = L "D:/02python/01code/yolo/ultralytics-main/2023025best.onnx" ; Ort::Session session(env, model_path, session_options); // print model input layer (node names, types, shape etc.) Ort::AllocatorWithDefaultOptions allocator; size_t num_input_nodes = session.GetInputCount(); std::cout << session.GetInputNameAllocated(0, allocator) << std::endl; std::cout << session.GetOutputNameAllocated(0, allocator) << std::endl; system ( "pause" ); return 0; } |
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 单线程的Redis速度为什么快?
· 展开说说关于C#中ORM框架的用法!
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库
· SQL Server 2025 AI相关能力初探