[Triton课程笔记] 1.1.1 框架介绍
1.[Triton课程笔记] 1.1.1 框架介绍
2.[Triton课程笔记] 1.1.2 Triton的设计3.[Triton课程笔记] 1.1.3 Triton的辅助工具及特性4.[Triton课程笔记] 1.2.1 编程实战-准备模型仓库5.[Triton课程笔记] 1.2.2 编程实战-如何编写模型配置6.[Triton课程笔记] 1.2.3 编程实战-启动Triton Server7.[Triton课程笔记] 1.2.4 编程实战-配置ensemble model8.[Triton课程笔记] 1.2.5 编程实战-请求Triton Server9.[Triton课程笔记] 2.1.1 Backend-大纲10.[Triton课程笔记] 2.1.2-2.1.3 Backend-接口实现11.[Triton课程笔记] 2.1.4 Backend-build12.[Triton课程笔记] 2.2.1 Python Backend13.[Triton课程笔记] 2.2.2 Python Backend及BLS14.[Triton课程笔记] 2.2.3 BLS续
一、推理框架介绍

- triton和推理框架不能画上等号,推理框架一般包括客户端端和服务端,triton是服务端部分。
- 使用triton的场景,一般使用k8s来管理triton应用,解决负载均衡,动态扩容等问题。
- 模型仓库,用来管理模型文件。
- metrics service:监控整个推理服务,驾驶舱。
- 推理服务一般开启多个部署,用以分担推理请求压力。triton实际上就是绿色部分。
- triton支持多种深度学习框架导出的模型,Tensorrt只是triton里的一个推理库而已。
二、推理框架组件介绍

进一步介绍了推理框架中的组件。
- k8s——集群。
- Triton——单模式推理服务(Pod),单卡/多卡
- Tensorrt——模型加速库。
三、Triton基本功能

- 多框架支持;
- CPU、GPU,多GPU异构支持;
- 并行执行能力,CPU级别优化;
- 支持HTTP/REST,gRPC APIS;
- 监控:通过延迟和运行状况指标与编排系统和自动缩放进程集成;
- 模型管理,加载、卸载、更新;
- 开源,NGC docker仓库支持,每月发布;
其他:Scheduler主要是指对推理请求队列进行调度的过程。
本文版权归作者(https://www.cnblogs.com/harrymore/)和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文链接,如有问题, 可邮件(harrymore@126.com)咨询.
合集:
Triton课程笔记
标签:
triton
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)