optillm openai api 兼容的推理proxy 服务

optillm openai api 兼容的推理proxy 服务,内部使用了不少技术,同时也支持插件化的扩展

内部参考处理

 

说明

optillm 内部支持基于litellm 的llm 服务,同时使用了不少llm的优化技巧,值得研究下,同时对于不支持openai api 的大模型,我们可以通过litellm proxy 解决

参考资料

https://github.com/codelion/optillm

posted on   荣锋亮  阅读(6)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
历史上的今天:
2024-01-25 dremio random 函数造成dremio crash 问题
2023-01-25 caddyserver 架构简单说明
2023-01-25 caddyserver 生产运行一种玩法实践
2023-01-25 cube.js 一些变动
2023-01-25 caddyserver 几个有用的配置参数
2022-01-25 Castled 源码解析 一 整体介绍
2021-01-25 stream-to-promise stream 2 promise 的npm 包

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示