Xinference 安装 1.3.0

项目Github:https://github.com/xorbitsai/inference/


文档:https://inference.readthedocs.io/zh-cn/latest/getting_started/index.html


安装的时候如果还是 0.16.3

pip install "xinference[all]"

image



要装最新的1.3需要这么写:

pip install  "xinference==1.3.0.post1"

image




更新日志

✨ 新模型
* LLM:
     * DeepSeek V3 & DeepSeek R1
     * Qwen2.5-Instruct-1M
* 多模态:
     * InternVL 2.5
新功能
* SGLang 引擎支持分布式多机多卡推理
* vLLM 引擎支持输出 reasoning content
* 日志新增 GPU 利用率显示
* vLLM Xavier 现支持最新 vLLM ≥ 0.7.0
BUG 修复
* 修复开启 Xavier 后 batch 推理的一个问题
* ⚡ 修复 FLUX 使用了不兼容的 scheduler 问题
UI 相关
* ⭐ 启动模型页面新增「推荐模型」模块,重要模型一键直达
* 模型额外启动参数输入框支持智能提示,重要参数一键填入
* 新增「启动命令行 ↔ 页面操作」互相转换工具
* ⚙ 模型启动固定选项新增 n_worker,适配分布式推理

posted @   sun8134  阅读(48)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· 展开说说关于C#中ORM框架的用法!
· SQL Server 2025 AI相关能力初探
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库
历史上的今天:
2020-02-25 .net core IIS 部署 应用程序池停止并报错503
分享按钮
点击右上角即可分享
微信分享提示