litellm ollama 通过proxy api 进行模型创建以及自定义计费

关于计费我以前简单介绍过,可以通过ui 配置,同时对于计费费用可以使用api 获取,实际上我们可以直接通过api 创建模型的时候进行自定义计费配置,以下是一个简单说明

参考api

  • 定义

  • 使用
    通过curl 模式,注意此数据实际会存储到db 中,注意配置文件中关于db 信息的添加
curl -X 'POST' \
  'http://0.0.0.0:4000/model/new' \
  -H 'accept: application/json' \
  -H 'API-Key: sk-1234' \
  -H 'Content-Type: application/json' \
  -d '{
  "model_name": "dalongdemov3",
  "litellm_params": {
    "api_key": "demo",
    "api_base": "http://localhost:11434",
    "input_cost_per_token": 1,
    "output_cost_per_token": 1,
    "input_cost_per_second": 1,
    "output_cost_per_second": 1,
    "model": "ollama/qwen2:7b"
  }
}'
  • 效果

说明

目前api 设计的实际有些参数传递了反而会有问题,以上是测试通过的一个

参考资料

https://docs.litellm.ai/docs/

posted on   荣锋亮  阅读(139)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
历史上的今天:
2022-08-09 基于perfino+ jprofiler 分析dremio
2021-08-09 prefect 新的开源工作流管理系统
2020-08-09 goflow golang 的基于flow的编程库
2020-08-09 gvm golang 的多版本工具
2020-08-09 jvm-profiler 学习试用
2020-08-09 httpdiff http 请求diff 工具
2019-08-09 dotnetcore docker 简单运行

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示