和OpenApi大模型聊天

Chat Completions AP

Chat 模型将消息列表作为输入,并返回模型生成的消息作为输出
-个 Chat Completions APl 调用的示例看起来如下

# penA api base地址:"https://api.openai.com/v1"
# 老版本(v1以下的版本)0PENAI API BASE
# 新版本(V1及以上的版本)0PENAI BASE URL
import os
from openai import OpenAI

client = OpenAI(
    # This is the default and can be omitted
    api_key=os.environ.get("OPENAI API KEY"),
    base_url=os.environ.get("OPENAI API BASE"))

chat_completion = client.chat.completions.create(
    messages=[
        {"role": "system", "content": "You are a helpful assistant"},
        {"role": "user", "content": "您好,我叫老王"},
        {"role": "assistant", "content": "Say this is a test"},
    ],
    model="gpt-3.5-turbo")

print(chat_completion.choices[0].message.content)

messages 参数

主要输入是 messages 参数。消息必须是消息对象的数组


role(角色)

system(系统)

指令/角色扮演。系统消息有助于设置助手的行为。例如,您可以修改助手的个性或提供有关它在整个对话中应如何行为的具体指示。然而请注意,系统消息是可选的,而且没有系统消息时模型的行为可能与使用通用消息(如"You are a helpful assistant.")类似。

user(用户)

用户消息是助手需要响应的请求或评论。用户消息可以是任何内容,但是如果您想要模拟与助手的对话,则应该尽可能接近自然语言。

assistant(助手)

助手消息存储以前的助手回应,但也可以由您编写,以提供期望行为的示例。

 

通常,对话以系统消息开始,然后是用户和助手消息的交替。

当用户指示涉及到先前消息时,包括对话历史很重要。

由于模型没有过去请求的记忆,所有相关的信息必须作为每个请求中的对话的一部分提供。

 

Chat Completions 响应格式

-个 Chat Completions AP!响应的示例看起来如下

助手的回复可以通过以下方式提取:

# curl/requests
response['choices'][0]['message']['content']
# python-openai
response.choices[0].message.content

 

使用python requests库与OpenAl大模型聊天

不常用

import requests
import os

headers = {
    'Authorization': f'Bearer {os.environ.get("OPENAI API KEY")}'}

payload = {
    "model": 'gpt-3.5-turbo',
    "messages": [
        {
            "role": "user",
            "content": "hello"
        }
    ],
}

url = f'{os.environ.get("OPENAI API BASE")}/chat/completions'
response = requests.post(url, headers=headers, json=payload).json()

 

posted @   王竹笙  阅读(30)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
点击右上角即可分享
微信分享提示