会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
ZacksTang
博客园
首页
新随笔
联系
管理
订阅
2024年6月26日
LLM 推理 - Nvidia TensorRT-LLM 与 Triton Inference Server
摘要: 1. LLM 推理 - TensorRT-LLM 与 Triton Inference Server 随着LLM越来越热门,LLM的推理服务也得到越来越多的关注与探索。在推理框架方面,tensorrt-llm是非常主流的开源框架,在Nvidia GPU上提供了多种优化,加速大语言模型的推理。但是,t
阅读全文
posted @ 2024-06-26 19:38 ZacksTang
阅读(2090)
评论(1)
推荐(2)
编辑
公告