大模型:RAG 开发四大痛点及解决方案

开发者们在使用 RAG(检索增强生成模型)时经常会遇到一个问题——上下文缺失。因为单个数据块缺乏足够的背景,导致模型无法准确回答问题,甚至出现幻觉!

先举几个例子让大家感受一下:
- 数据块常常用代词来描述内容(比如:它、它们…),在检索时可能导致错误。
- 许多问题的答案分散在多个数据块中,单个数据块无法满足需求。

而开源模型dsRAG提供了2种解决方法:
1. 添加上下文块头
在每个数据块前加一个“头部”,提供更多背景信息。可以是文档标题、简要总结,或者章节和小节标题的组合。这样,模型在处理这些数据块时,就能更好地理解内容。
比如图1中Nike的文件在添加了头部信息后检索匹配度上升了0.24。

2. 将块转换为段落
大块内容通常提供更好的上下文,但检索特定信息时不太方便。我们可以将文档拆分成语义一致的部分,动态选择小块或大块。
具体方法是用 LLM 标注每个部分的起止行,然后再根据需要拆分成更小的块。

以Nike2023年的财报为例,在查询“Nike的股票补偿费用”时,相关数据块会集中在某几个部分(图2中x轴的200-500之间)。

通过设定一个阈值,把无关块的价值变为负数,而相关块则保持为正数,算法就能识别出最相关的文本段落(对应图2中x轴的400左右)。

而图3中的文本段落就是与“Nike的股票补偿费用”最相关的部分,图4展示了更详细的相关性图表。

经过测试,这种方法不仅能提供更完整的上下文,还能减小模型排名错误对检索效果的影响。

 

痛点1:知识缺失
知识库缺乏必要的上下文信息,导致 RAG 系统在无法找到确切答案时,可能会提供模棱两可的错误信息,而不是直接表明其无知。这种情况下,用户可能会接收到误导性的信息,从而感到沮丧。针对这一问题,有以下两种解决方案:

解决方案一:优化数据质量

“垃圾输入,垃圾输出。” 若源数据质量不佳,比如:存在相互矛盾的信息,即便是再完美的 RAG 流程也无法从劣质数据中提炼出有价值的知识。以下提出的解决方案不仅能解决这一难题,还能应对本文中提到的其他问题。高质量的数据是确保 RAG 流程顺畅运行的关键。

以下是一些常见的数据优化策略:

1. 清除噪音和无关信息:包括移除特殊字符、停用词(比如:“the”和“a”等常见词汇)以及 HTML 标签。

2. 识别并修正错误:涉及拼写错误、打字错误和语法错误。拼写检查工具和语言模型等资源对此很有帮助。

3. 去除重复数据:消除可能干扰检索过程的重复或相似记录。

解决方案二:优化提示词设计

由于知识库信息不足,系统可能会提供看似合理却错误的答案。在这种情况下,优化提示词可以显著提升系统表现。通过使用“若你不确定答案,请表明你不知道”等提示词,可以引导大模型承认其局限,并更清晰地表达不确定性。虽然这不能确保答案的绝对正确性,但在数据优化之后,设计恰当的提示词是提高系统透明度的有效手段之一。

痛点2:更相关的知识没有检索出来
在初步检索阶段知识未能被检索出来。关键的文档可能没有在检索组件给出的初步结果中,导致正确答案被遗漏,大模型因此无法提供精确的响应。研究指出:“问题的答案其实就藏在文档里,只是因为它排名不够高,所以没有被呈现给用户。”针对这一问题,有以下两种解决方案:

解决方案一:调整 chunk_size 和 similarity_top_k 超参数

在 RAG 模型中,chunk_size 和 similarity_top_k 是控制数据检索效率和准确性的两个关键参数。对这些参数的调整会影响到计算效率和信息检索质量之间的平衡。

解决方案二:Rerank 重排序

在将检索结果传递给大语言模型(LLM)之前对其进行重新排序,可以显著增强 RAG 系统的性能。LlamaIndex 的笔记揭示了有无重新排序的差别:

未经重新排序直接获取前两个节点的检索结果,导致结果不够精确。

相比之下,检索前 10 个节点并利用 CohereRerank 进行重排序,然后仅返回前两个节点,可以实现更精确的检索。

import os
from llama _ index.postprocessor.cohere _ rerank import CohereRerank

api _ key = os.environ [ "COHERE _ API _ KEY" ]
cohere _ rerank = CohereRerank ( api _ key=api _ key , top _ n=2 ) # return top 2 nodes from reranker

query _ engine = index.as _ query _ engine (
similarity _ top _ k=10 , # we can set a high top _ k here to ensure maximum relevant retrieval
node _ postprocessors= [ cohere _ rerank ], # pass the reranker to node _ postprocessors
)

response = query _ engine.query (
"What did Sam Altman do in this essay?" ,
)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
痛点3:格式错误
输出格式不正确。当大语言模型(LLM)未能遵循以特定格式(比如:表格或列表)提取信息的指令时,我们提出了以下四种解决方案:

解决方案一:优化提示词设计

为了改善提示词并解决这一问题,可以采取以下几种策略:

明确指出格式要求。
简化指令并突出关键术语。
提供具体示例。
对提示词进行迭代并追加相关问题。
解决方案二:输出解析方法

输出解析可以用于以下目的,以确保获得期望的输出格式:

为每个提示/查询提供格式化指南。

对LLM的输出进行“解析”处理。

以下是一个使用 LangChain 输出解析模块的示例代码片段,该模块可在LlamaIndex 中应用。

from llama _ index.core import VectorStoreIndex , SimpleDirectoryReader
from llama _ index.core.output _ parsers import LangchainOutputParser
from llama _ index.llms.openai import OpenAI
from langchain.output _ parsers import StructuredOutputParser , ResponseSchema

# load documents , build index
documents = SimpleDirectoryReader ( " .. /paul _ graham _ essay/data" ).load _ data ( )
index = VectorStoreIndex.from _ documents ( documents )

# define output schema
response _ schemas = [
ResponseSchema (
name= "Education" ,
description= "Describes the author's educational experience/background." ,
) ,
ResponseSchema (
name= "Work" ,
description= "Describes the author's work experience/background." ,
) ,
]

# define output parser
lc _ output _ parser = StructuredOutputParser.from _ response _ schemas (
response _ schemas
)
output _ parser = LangchainOutputParser ( lc _ output _ parser )

# Attach output parser to LLM
llm = OpenAI ( output _ parser=output _ parser )

# obtain a structured response
query _ engine = index.as _ query _ engine ( llm=llm )
response = query _ engine.query (
"What are a few things the author did growing up?" ,
)
print ( str ( response ))
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
解决方案三:Pydantic 程序

Pydantic 程序是一个多功能的框架,它能够将输入的字符串转换成结构化的 Pydantic 对象。LlamaIndex 提供了几种不同类型的 Pydantic 程序:

LLM 文本补全 Pydantic 程序:这类程序负责处理输入的文本,并将其转换成用户自定义的结构化对象,这个过程结合了文本补全 API 和输出解析。

LLM 函数调用 Pydantic 程序:这些程序通过使用 LLM 函数调用 API 来处理输入文本,并将其转换成用户指定的结构化对象。

预制 Pydantic 程序:这些程序设计用于将输入文本转换成预定义的结构化对象。

以下是一个使用 OpenAI 的 Pydantic 程序的示例代码片段:

from pydantic import BaseModel
from typing import List

from llama _ index.program.openai import OpenAIPydanticProgram

# Define output schema ( without docstring )
class Song ( BaseModel ) :
title : str
length _ seconds : int


class Album ( BaseModel ) :
name : str
artist : str
songs : List [ Song ]

# Define openai pydantic program
prompt _ template _ str = """\
Generate an example album , with an artist and a list of songs.\
Using the movie { movie _ name } as inspiration.\
"""
program = OpenAIPydanticProgram.from _ defaults (
output _ cls=Album , prompt _ template _ str=prompt _ template _ str , verbose= True
)

# Run program to get structured output
output = program (
movie _ name= "The Shining" , description= "Data model for an album."
)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
解决方案四: OpenAI JSON 模式

通过OpenAI的 JSON 模式,我们可以将`response_format`设置为`{ “type”: “json_object” }`,从而激活响应的 JSON 模式。当启用 JSON 模式后,大模型将被限制仅生成可以解析为有效 JSON 对象的字符串。JSON 模式确保了输出格式的强制性,但它并不支持根据特定模式进行验证。

痛点4:输出不完整
回答缺失完整性。虽然部分答复没有错误,但它们并未包含所有必要的细节,即便这些信息在上下文中是可获取的。比如:当有人提问:“文档A、B和C中讨论的主要议题是什么?”为了确保回答的完整性,单独对每份文档进行查询可能更为有效。

解决方案一:查询变换

在最初的 RAG 方法中,比较类型的问题表现尤为不佳。提升 RAG 推理能力的一个有效方法是引入查询理解层——在实际将查询向量存入存储之前进行查询变换。以下是四种不同的查询变换方法:

1. 路由:保留原始查询,并识别出与之相关的合适工具子集。随后,将这些工具指定为合适的选项。

2. 查询重写:保留选定的工具,但以不同方式重新构建查询,以便在同一工具集中应用。

3. 子问题分解:将查询拆分为几个更小的问题,每个问题针对不同的工具,由其元数据来决定。

4. ReAct Agent 工具选择:基于原始查询,确定使用的工具,并制定在该工具上运行的特定查询。

请参考以下示例代码片段,了解如何应用 HyDE(假设文档嵌入)这一查询重写技术。给定一个自然语言查询,首先生成一个假设文档/答案。接着,使用这个假设文档进行嵌入搜索,而不是使用原始查询。

# load documents , build index
documents = SimpleDirectoryReader ( " .. /paul _ graham _ essay/data" ).load _ data ( )
index = VectorStoreIndex ( documents )

# run query with HyDE query transform
query _ str = "what did paul graham do after going to RISD"
hyde = HyDEQueryTransform ( include _ original=True )
query _ engine = index.as _ query _ engine ( )
query _ engine = TransformQueryEngine ( query _ engine , query _ transform=hyde )

response = query _ engine.query ( query _ str )
print ( response )
1
2
3
4
5
6
7
8
9
10
11
12
最后分享
AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!
————————————————

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

原文链接:https://blog.csdn.net/m0_56255097/article/details/141383610

posted on   ExplorerMan  阅读(37)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
历史上的今天:
2022-03-01 15行python代码,帮你理解令牌桶算法
2018-03-01 Apache ab测试工具使用方法(无参、get传参、post传参)

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示