2024年7月30日

litellm ollama python api 模式测试

摘要: 一起简单说过itellm 支持多种模式的大模型运行,有proxy 模式(可以proxy 模型以及包含api服务的模型接口),也有直接通过python 代码进行访问的,以下是对于ollama 模型的一个简单运行试用 python代码模式 appv4.py 此模式litellm 会自己进行 from l 阅读全文

posted @ 2024-07-30 07:13 荣锋亮 阅读(32) 评论(0) 推荐(0) 编辑

导航