AI - 大模型返回的prompt_tokens、prompt_unit_price等信息,是什么意思

在使用大语言模型(LLM)时,`prompt_tokens`、`completion_tokens`和`prompt_unit_price`等信息是非常重要的概念,它们帮助用户理解和管理模型的使用情况和成本。以下是对这些术语的详细解释:

### 1. `prompt_tokens`
- **定义**:`prompt_tokens`是指用户输入的提示(prompt)被模型处理时消耗的token数量。这些token包括用户发送的内容、对话上下文(如前几轮消息,若有)以及系统消息(如设定的背景信息)。
- **作用**:
- 表示模型需要处理的输入长度。
- 可以用来评估prompt的设计是否简洁,帮助用户优化输入内容,减少不必要的信息,从而降低成本。

### 2. `completion_tokens`
- **定义**:`completion_tokens`是指模型生成的回答所用的token数量。
- **作用**:
- 表示模型输出的长度。
- 提供优化线索:如果生成的回答过长,可能需要调整`max_tokens`参数或模型温度(`temperature`)来控制长度。

### 3. `prompt_unit_price`
- **定义**:`prompt_unit_price`是指每个prompt token的单价,即处理每个输入token的成本。
- **作用**:
- 帮助用户了解和管理调用成本,因为API的计费通常基于token使用量。
- 用户可以通过分析`prompt_tokens`和`prompt_unit_price`来优化prompt的设计,减少无用内容,控制输出长度,从而降低成本。

### 4. `total_tokens`
- **定义**:`total_tokens`是`prompt_tokens`和`completion_tokens`的总和,即本次请求的整体资源消耗。
- **作用**:
- 显示本次请求的整体资源消耗。
- 便于用户估算成本,因为API的计费通常基于总token数量。

### 5. `total_price`
- **定义**:`total_price`是指本次请求的总费用,计算方式为`total_tokens`乘以相应的单价。
- **作用**:
- 提供本次请求的总成本,帮助用户管理和优化调用成本。

### 6. `currency`
- **定义**:`currency`是指费用的货币单位,通常为美元(USD)或其他当地货币。
- **作用**:
- 明确费用的货币单位,方便用户理解和管理成本。

### 7. `latency`
- **定义**:`latency`是指请求的响应时间,通常以秒为单位。
- **作用**:
- 帮助用户了解API调用的性能,优化应用的用户体验。

### 示例
假设你使用了一个大语言模型,输入了一个包含10个token的prompt,模型生成了一个包含15个token的回答。那么:
- `prompt_tokens` = 10
- `completion_tokens` = 15
- `total_tokens` = 10 + 15 = 25
- 如果每个token的单价是0.01美元,那么:
- `prompt_price` = 10 * 0.01 = 0.10美元
- `completion_price` = 15 * 0.01 = 0.15美元
- `total_price` = 25 * 0.01 = 0.25美元

通过这些信息,用户可以更好地理解和管理大语言模型的使用情况和成本。

 

参考文档:

https://zhuanlan.zhihu.com/p/640831642

 

posted on   frank_cui  阅读(264)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

levels of contents
点击右上角即可分享
微信分享提示