SpringBoot对接OpenAI
SpringBoot对接OpenAI
随着人工智能技术的飞速发展,越来越多的开发者希望将智能功能集成到自己的应用中,以提升用户体验和应用的功能。OpenAI作为一家领先的人工智能公司,提供了许多先进的自然语言处理和语言生成模型,其中包括深受欢迎的GPT-3.5模型。本文将介绍如何利用Spring Boot框架与OpenAI进行对接,为你的应用增加强大的智能能力。
1、OpenAI概述:
OpenAI是一家人工智能研究实验室,致力于构建人类水平通用人工智能。他们的GPT-3.5模型是目前最先进的自然语言处理模型之一,能够理解和生成自然语言文本。通过与OpenAI对接,你可以将这一强大的模型嵌入到你的应用中,实现自动化文本生成、智能问答、机器翻译等功能。
2、Spring Boot 简介:
Spring Boot是一个用于构建独立的、基于生产级别的Java应用程序的框架。它简化了Spring应用的开发过程,提供了一系列的工具和插件,帮助开发者快速搭建稳健的应用。通过Spring Boot,你可以轻松创建RESTful API,处理HTTP请求,以及管理应用的依赖等。
3、搭建Spring Boot项目:
- 环境准备:确保你已经安装了Java开发环境和Maven构建工具。
- 创建Spring Boot项目:使用Spring Initializr创建一个新的Spring Boot项目,选择所需的依赖,如Web、OpenAI API等。
- 配置OpenAI API密钥:在application.properties或application.yml文件中,设置OpenAI API的访问密钥,确保可以在项目中调用OpenAI的服务。
3.1、环境准备
这里就不多说了,直接使用maven搭建一个SpringBoot项目
3.2、引入依赖
本次案例比较简单,就是一个干净的SpringBoot项目,再引入Hutool工具包即可,下面是全部的pom.xml文件
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>2.3.2.RELEASE</version> <relativePath/> <!-- lookup parent from repository --> </parent> <groupId>com.pp.chat</groupId> <artifactId>chatgpt-api-demo</artifactId> <version>1.0-SNAPSHOT</version> <dependencies> <!-- Fastjson --> <dependency> <groupId>com.alibaba</groupId> <artifactId>fastjson</artifactId> <version>1.2.83</version> </dependency> <!-- HuTool工具包 --> <dependency> <groupId>cn.hutool</groupId> <artifactId>hutool-all</artifactId> <version>5.8.16</version> </dependency> <!-- knife4j生成接口文档 --> <dependency> <groupId>com.github.xiaoymin</groupId> <artifactId>knife4j-openapi2-spring-boot-starter</artifactId> <version>4.2.0</version> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <!-- lombok简化实体构造方法 --> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> </dependency> </dependencies> </project>
3.3、配置文件
knife4j: enable: true ChatGPT: connect-timeout: 60000 # HTTP请求连接超时时间 read-timeout: 60000 # HTTP请求读取超时时间 variables: # 自定义变量: apiKey: xxx # 你的 OpenAI 的 API KEY model: gpt-3.5-turbo # ChartGPT 的模型 maxTokens: 500 # 最大 Token 数 temperature: 1 # 该值越大每次返回的结果越随机,即相似度越小
4、核心代码
4.1、项目结构
4.2、实体类
1、GPTChoice
package com.pp.chat.entity; import lombok.Data; /** * TODO 文本模型返回内容 * * @author ss_419 * @version 1.0 * @date 2023/8/5 15:47 */ @Data public class GPTChoice { private String text; private Integer index; private Message message; }
2、GPTData
package com.pp.chat.entity; import lombok.Data; /** * TODO 图形模型返回内容 * * @author ss_419 * @version 1.0 * @date 2023/8/5 11:37 */ @Data public class GPTData { private String url; }
3、GPTRequest
package com.pp.chat.entity; import lombok.Data; import java.util.List; /** * TODO 问题请求体 * * @author ss_419 * @version 1.0 * @date 2023/8/5 15:47 */ @Data public class GPTRequest { /*** 问题*/ private String askStr; /*** 文本回答*/ private String replyStr; /*** 图形回答*/ private List<GPTData> replyImg; }
4、GPTResponse
package com.pp.chat.entity; import lombok.Data; import java.util.List; /** * TODO 文本模型返回响应体 * * @author ss_419 * @version 1.0 * @date 2023/8/5 15:47 */ @Data public class GPTResponse { private String id; private String object; private String created; private String model; private List<GPTChoice> choices; }
5、GPTImageResponse
package com.pp.chat.entity; import lombok.Data; import java.util.List; /** * TODO 图形模型返回响应体 * * @author ss_419 * @version 1.0 * @date 2023/8/5 15:47 */ @Data public class GPTImageResponse { private String created; private List<GPTData> data; }
6、Message
package com.pp.chat.entity; import lombok.Data; /** * TODO 文本模型消息体 * * @author ss_419 * @version 1.0 * @date 2023/8/5 10:30 */ @Data public class Message { private String role; private String content; }
4.3、业务类
ChartGPTService
package com.pp.chat.service; import com.pp.chat.entity.GPTData; import java.util.List; public interface ChartGPTService { /** * 调用文本模型ai * @param prompt * @return */ String send(String prompt); /** * 调用图片模型ai * @param prompt * @return */ List<GPTData> sendImg(String prompt); }
ChartGPTServiceImpl
package com.pp.chat.service.impl; import cn.hutool.http.Header; import cn.hutool.http.HttpResponse; import cn.hutool.http.HttpUtil; import cn.hutool.json.JSONObject; import cn.hutool.json.JSONUtil; import com.pp.chat.entity.*; import com.pp.chat.service.ChartGPTService; import org.springframework.beans.factory.annotation.Value; import org.springframework.stereotype.Service; import java.util.ArrayList; import java.util.HashMap; import java.util.List; import java.util.Map; @Service("chartGPTService") public class ChartGPTServiceImpl implements ChartGPTService { @Value("${ChatGPT.variables.apiKey}") private String apiKey; @Value("${ChatGPT.variables.maxTokens}") private String maxTokens; @Value("${ChatGPT.variables.model}") private String model; @Value("${ChatGPT.variables.temperature}") private String temperature; @Override public String send(String prompt) { JSONObject bodyJson = new JSONObject(); Message message = new Message(); message.setContent(prompt); message.setRole("system"); ArrayList<Message> messages = new ArrayList<>(); messages.add(message); bodyJson.put("messages", messages); bodyJson.put("model", model); bodyJson.put("max_tokens", Integer.parseInt(maxTokens)); bodyJson.put("temperature", Double.parseDouble(temperature)); Map<String, Object> headMap = new HashMap<>(); // headMap.put("Authorization", "Bearer " + apiKey); HttpResponse httpResponse = // 官网请求,没梯子不能访问 // HttpUtil.createPost("https://api.openai.com/v1/chat/completions") // 使用代理地址 https://api.openai-proxy.com/ HttpUtil.createPost("https://api.openai-proxy.com/v1/chat/completions") .header(Header.AUTHORIZATION, "Bearer " + apiKey) .header(Header.CONTENT_TYPE, "application/json") .body(JSONUtil.toJsonStr(bodyJson)).execute(); String resStr = httpResponse.body(); GPTResponse gptResponse = JSONUtil.toBean(resStr, GPTResponse.class); return gptResponse.getChoices().get(0).getMessage().getContent().replaceAll("\\n", ""); } @Override public List<GPTData> sendImg(String prompt) { JSONObject bodyJson = new JSONObject(); bodyJson.put("prompt", prompt); bodyJson.put("n", 2); bodyJson.put("size", "1024x1024"); Map<String, Object> headMap = new HashMap<>(); headMap.put("Authorization", "Bearer " + apiKey); HttpResponse httpResponse = // 官网请求,没梯子不能访问 // HttpUtil.createPost("https://api.openai.com/v1/chat/completions") // 使用代理地址 https://api.openai-proxy.com/ HttpUtil.createPost("https://api.openai-proxy.com/v1/images/generations") .header(Header.AUTHORIZATION, "Bearer " + apiKey) .header(Header.CONTENT_TYPE, "application/json") .body(JSONUtil.toJsonStr(bodyJson)).execute(); String resStr = httpResponse.body(); GPTImageResponse gptResponse = JSONUtil.toBean(resStr, GPTImageResponse.class); List<GPTData> data = gptResponse.getData(); return data; } }
4.4、Boot启动类
Main
package com.pp.chat; import org.springframework.boot.SpringApplication; import org.springframework.boot.autoconfigure.SpringBootApplication; /** * @author ss_419 */ @SpringBootApplication public class Main { public static void main(String[] args) { SpringApplication.run(Main.class,args); System.out.println("Hello world!"); } }
5、测试
启动项目,使用knife4j进行接口测试
接口文档默认地址:http://localhost:8080/doc.html
5.1、测试文本模型
5.2、测试图片模型
gpt生成的图片在链接中
6、总结
通过Spring Boot与OpenAI的对接,我们可以轻松将强大的自然语言处理功能集成到我们的应用中,为用户提供更智能、更便捷的服务。同时,结合Spring Boot强大的开发能力,我们可以快速搭建出高效稳定的智能应用,满足不断变化的市场需求。未来,随着OpenAI技术的不断演进,我们将能够构建更多创新的智能应用,为用户带来更加令人惊喜的体验
posted on 2023-08-06 11:09 JavaCoderPan 阅读(966) 评论(3) 编辑 收藏 举报
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 【.NET】调用本地 Deepseek 模型
· CSnakes vs Python.NET:高效嵌入与灵活互通的跨语言方案对比
· DeepSeek “源神”启动!「GitHub 热点速览」
· 我与微信审核的“相爱相杀”看个人小程序副业
· Plotly.NET 一个为 .NET 打造的强大开源交互式图表库