litellm openai 标准格式的支持100+ 大模型的负载均衡&异常fallback 框架
litellm 支持多种大模型的处理包含了负载均衡,fallbabck,速度追踪,配置管理,限速处理,同时对于提供标准的openao 标准格式api
基于此我们可以实现大模型标准的openai 能力,同时实现类似openai 的安全管理,key 管理,同时支持多示例的配额管理(基于redis的)
同时也提供了完备的openai 能力(swagger)
使用模式
litellm 对于不同llm 的集成包含了两种模式
- 基于python api 模式的
此模式需要自己配置不同后端llm,包含了key 信息,地址信息,对于简单使用比较方便不利于使用openai sdk 的标准化 - 基于litellm proxy 模式
此模式我们基于配置进行不同后端llm 的配置,可以灵活的实现不同的策略,比如负载均衡,配置管理,通用配置管理,路由配置,环境变量配置,还是很强大的,还会包含一个ui 方便管理,同时里边也包含了完备的openapi (swagger) 可以灵活的调用
说明
以上是一个简单介绍,使用好litetllm 可以让我们自己私有大模型服务或者依赖的三方大模型服务实现一个统一管理,强大灵活,可以较少修改基于openai sdk 的服务,一个参考玩法
参考资料
https://github.com/BerriAI/litellmhttps://docs.litellm.ai/docs/
https://docs.litellm.ai/docs/proxy/configs
https://microsoft.github.io/autogen/docs/topics/non-openai-models/local-litellm-ollama/
https://thenewstack.io/ai-gateways-transform-experimentation-into-scalable-production/
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
2022-07-29 haproxy dataplaneapi 2.6 发布
2022-07-29 cube.js cube store minio 集成
2022-07-29 cube.js 即将使用cube store 替换redis
2022-07-29 一次 jenkins 升级造成git clone 代码异常问题解决
2020-07-29 unrolled/render 集成Masterminds/sprig 增强模版处理
2019-07-29 telegraf 学习三 telegra inputs.net_response + smtp2http+ grafana 进行tcp服务状态监控
2015-07-29 fastBinaryJSON