[Triton课程笔记] 2.2.2 Python Backend及BLS
1.[Triton课程笔记] 1.1.1 框架介绍2.[Triton课程笔记] 1.1.2 Triton的设计3.[Triton课程笔记] 1.1.3 Triton的辅助工具及特性4.[Triton课程笔记] 1.2.1 编程实战-准备模型仓库5.[Triton课程笔记] 1.2.2 编程实战-如何编写模型配置6.[Triton课程笔记] 1.2.3 编程实战-启动Triton Server7.[Triton课程笔记] 1.2.4 编程实战-配置ensemble model8.[Triton课程笔记] 1.2.5 编程实战-请求Triton Server9.[Triton课程笔记] 2.1.1 Backend-大纲10.[Triton课程笔记] 2.1.2-2.1.3 Backend-接口实现11.[Triton课程笔记] 2.1.4 Backend-build12.[Triton课程笔记] 2.2.1 Python Backend
13.[Triton课程笔记] 2.2.2 Python Backend及BLS
14.[Triton课程笔记] 2.2.3 BLS续
一、例子
在Python Backend中用pytorch在GPU上运行Resnet50。
二、环境配置
由于原生环境没有pytorch的包,因此需要自己安装,有两种安装方式:
- 直接继承原生的docker镜像,并在dockerfile中安装需要的包;
- 如果不能用原生镜像中的python,需要用第二种方式,即创建新的conda环境,安装依赖,重新构建python backend stub,并复制到模型目录;打包conda环境,在配置文件中指定conda包;
三、python backend总结
- 必须手动在代码中指定运行的设备(如GPU)
- 参数"group_instance {KIND:gpu}" 不起作用
- Requests都没有打包成batch,需要自己手动去拼接;
- 每个Request必须对应一个Response;
- 如果要避免CPU-GPU拷贝设置参数:FORCE_CPU_ONLY_INPUT_TENSORS;
- 用于数据传输的共享内存必须足够大
- 每个实例至少需要65MB
- 比C++ Backend效率低,特别在循环处理方面;
四、BLS简介
- 达到动态组合的效果;
- 通过简单的python代码去连接模型和实现逻辑流,如循环,if-else,数据控制流;
- BLS就是一种特殊的python backend:
- 可以在代码中调用其他模型;
- 配置和python model没区别;
- 有两种模式:
- 同步模式;
- 异步模式;
4.1 BLS的同步模式
例子:
25:25 代码部分

本文版权归作者(https://www.cnblogs.com/harrymore/)和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文链接,如有问题, 可邮件(harrymore@126.com)咨询.
合集:
Triton课程笔记
标签:
trtion
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)