litellm ollama python api 模式测试

一起简单说过itellm 支持多种模式的大模型运行,有proxy 模式(可以proxy 模型以及包含api服务的模型接口),也有直接通过python 代码进行访问的,以下是对于ollama 模型的一个简单运行试用

python代码模式

  • appv4.py
    此模式litellm 会自己进行
from litellm import completion
 
response = completion(
  model="ollama/qwen2:1.5b",
  messages=[{ "content": "Hello, how are you?","role": "user"}]
)
 
print(response)
  • 效果

实际api 调用( 通过wireshark 分析的)

说明

litellm ollama python 代码模型的运行也是通过基于ollama 提供的接口调用,只是对于model 格式上有一个比较明确的定义, ollama/qwen2:1.5b 其中ollama 是必须的,属于provider 名称,后边是实际模型的名称

参考资料

https://docs.litellm.ai/docs/proxy/quick_start
https://github.com/BerriAI/litellm

posted on   荣锋亮  阅读(308)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
历史上的今天:
2023-07-30 citus 12 新特性
2023-07-30 dolphinscheduler docker-compose 运行简单说明
2023-07-30 dolphinscheduler 调度spark on k8s
2022-07-30 使用py4j 实现python与java 的互调用
2022-07-30 dremio arrow flight sql odbc 源码开源了
2022-07-30 dremio arrow flight sql odbc 驱动支持mac 以及linux 了
2021-07-30 spring batch 学习 简单demo

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示