ChatGPT转发工具-springboot
背景
国内服务器无法访问openAI接口,我想过有两种实现方式
- 代理工具类似 tinyproxy、nginx
- 开发一个转发客户端(java、python都可以实现),提供一个api接口
源码
github仓库 https://github.com/mintonzhang/chatgpt-proxy-server
代码很简单,有手就能实现
使用方式(docker部署的方式)
- docker-compose
version: '3.1'
services:
web:
image: registry.cn-hangzhou.aliyuncs.com/ywja/chatgpt-proxy-server:main
ports:
- "19322:8080"
restart: unless-stopped
将以上代码放在创建成一个 openai-proxy.yml,然后运行docker-compose命令
docker-compose -f openai-proxy.yml up -d
- 使用docker run的方式启动
docker run --name gpt-proxy -p 19322:8080 -dit registry.cn-hangzhou.aliyuncs.com/ywja/chatgpt-proxy-server:main
最终效果
测试
POST http://你的ip或者域名:19322/apis/v2/chat?apiKey=key
{
"model": "gpt-3.5-turbo",
"messages": [{
"role": "user",
"content": "你是谁呀"
}]
}
参数和官网的一模一样
注意事项
- 部署该服务的服务器需要在别的国家
- 延迟取决于你的服务器带宽和距离
- 该项目只做转发服务
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库