当今科技领域的发展日新月异,向量数据库成为了热门的话题之一。
这些数据库以其高效的向量检索和相似度搜索功能,为各种应用场景提供了强大的支持。
本文旨在汇总向量数据库
Milvus、Zilliz、Faiss、Qdrant、LlamaIndex、Chroma、LanceDB、Pinecone、Weaviate、
基本介绍
1. Milvus
Milvus是一个开源的向量相似度搜索引擎,由Zilliz团队开发。它提供了高性能的向量检索和相似度搜索功能,支持海量数据的快速查询。Milvus支持多种向量类型和距离度量方法,并提供了易于使用的API和丰富的功能,使得开发者可以轻松构建各种应用,如图像搜索、推荐系统和自然语言处理。
2. Zilliz:
Zilliz是一家专注于大规模向量数据分析的公司,他们开发了多个与向量相关的开源项目,其中包括Milvus和Chroma。Zilliz致力于提供高效的向量数据处理和分析解决方案,帮助用户在海量数据中进行快速的相似度搜索和数据分析。
3. Faiss:
Faiss是Facebook AI Research开发的一个高性能向量相似度搜索库。它支持多种向量索引结构和距离度量方法,并提供了高效的搜索算法,能够在大规模数据集上进行快速的相似度搜索。Faiss被广泛应用于图像识别、语音识别和自然语言处理等领域。
4. Qdrant:
Qdrant是一个开源的向量搜索引擎,由Qdrant团队开发。它提供了高性能的向量检索和相似度搜索功能,支持多种向量类型和距离度量方法。Qdrant还提供了丰富的查询语法和灵活的配置选项,使得用户可以根据自己的需求进行定制化的搜索。
Qdrant 因其易用性和用户友好的开发者文档,面世不久即获得关注。
Qdrant 以 Rust 语言构建,提供 Rust、Python、Golang 等客户端 API,能够满足当今主流开发人员的需求。
不过, Qdrant 作为后起之秀,和其他竞品仍然存在一定差距,例如界面及查询功能不够完善。
5. LlamaIndex:
LlamaIndex是一个基于向量的数据库引擎,由Llama Labs开发。它提供了高效的向量存储和检索功能,支持多种向量类型和距离度量方法。LlamaIndex还提供了易于使用的API和丰富的功能,使得开发者可以快速构建各种应用,如推荐系统、广告投放和智能搜索。
6. Chroma:
Chroma是Zilliz团队开发的一个开源的向量数据管理系统。它提供了高效的向量存储和查询功能,支持多种向量类型和距离度量方法。Chroma还提供了可扩展的架构和分布式计算能力,能够处理大规模的向量数据集。
Qdrant Cloud VS Zilliz Cloud
--这两个都是云服务,不同点在于
Qdrant 更适合追求低成本基础设施维护的开发人员。
而如果应用系统更注重性能和可扩展性,Zilliz Cloud/Milvus 是更合适的选择。因为 Zilliz Cloud/Milvus 具备可扩展性极强、性能更佳、延时更低的特点,适用于对性能指标有着严格要求的场景。
每秒查询次数(QPS)
测试结果显示,在 10,000,000 条 768 维的向量数据中进行检索时,Zilliz Cloud 两款实例的 QPS 分别是 Qdrant Cloud 实例的 7 倍和 1 倍。
具体见参考资料
Qdrant 用法
架构
同其他数据库一样,支持本地和服务器部署
docker 部署
提取预构建的 Docker 映像并运行容器:
docker pull qdrant/qdrant
docker run -d -p 7541:6333 --ip=10.0.180.16 qdrant/qdrant # 7541对外,6333是容器端口,必须是6333或者6334
-d 后台启动服务后
Access web UI at http://localhost:6333/dashboard 2023-12-06T04:43:43.136073Z INFO storage::content_manager::consensus::persistent: Initializing new raft state at ./storage/raft_state.json 2023-12-06T04:43:43.552838Z INFO qdrant: Distributed mode disabled 2023-12-06T04:43:43.552926Z INFO qdrant: Telemetry reporting enabled, id: 9fcc223f-6fbe-4932-8a31-4663683e1baf 2023-12-06T04:43:43.564727Z INFO qdrant::tonic: Qdrant gRPC listening on 6334 2023-12-06T04:43:43.564772Z INFO qdrant::tonic: TLS disabled for gRPC API 2023-12-06T04:43:43.565817Z INFO qdrant::actix: TLS disabled for REST API 2023-12-06T04:43:43.565952Z INFO qdrant::actix: Qdrant HTTP listening on 6333 2023-12-06T04:43:43.565991Z INFO actix_server::builder: Starting 95 workers
即可访问 http://10.0.180.16:7541/dashboard
安装包
pip install qdrant-client pymilvus
langchain demo
包括 本地 和 url 用法,下面的代码是将 文本 转换成向量 并存储到数据库
from langchain.vectorstores import Qdrant from langchain.schema import Document from langchain.embeddings.huggingface import HuggingFaceEmbeddings docs = [Document(page_content=u'avc')] embeddings = HuggingFaceEmbeddings( model_name=r"F:\weights\text2vec-base-chinese") # qdrant = Qdrant.from_documents( # docs, # embeddings, # location=":memory:", # 这个可以 Local mode with in-memory storage only # # path="emb_qdrant_pickle2", # 不行 # collection_name="my_documents", # ) qdrant = Qdrant.from_documents( docs, embeddings, url='10.0.180.16:7541', prefer_grpc=False, # 上面起服务用 6333,这里就需要False collection_name="my_documents", # 这个随便 ) print(qdrant.similarity_search('a'))
读取已存储的数据
from langchain.vectorstores import Qdrant from langchain.embeddings.huggingface import HuggingFaceEmbeddings import qdrant_client embeddings = HuggingFaceEmbeddings(model_name=r"F:\weights\text2vec-large-chinese") client = qdrant_client.QdrantClient( url='10.0.180.16:7541', prefer_grpc=False ) qdrant = Qdrant( client=client, collection_name="my_documents", # embedding_function=embeddings.embed_query, # 这里报过错,可查看源码 embeddings=embeddings ) found_docs = qdrant.similarity_search('员工绩效管理模式有哪些') print(found_docs)
加上 filter 过滤
embeddings = OpenAIEmbeddings(deployment="text-embedding-ada-002") client = qdrant_client.QdrantClient( url='10.0.180.x6:7541', prefer_grpc=False ) question = 'Idarat Al Mukhabarat Al Jawiyya' vector = embeddings.embed_query(question) search_result = client.search( collection_name="company3", query_vector=vector, query_filter=Filter( must=[FieldCondition(key="metadata.language", match=MatchValue(value="id"))] ), with_payload=True, limit=3, ) print(search_result)
纯 python 代码
from qdrant_client.http.models import PointStruct from langchain.vectorstores import Qdrant import qdrant_client from qdrant_client.http.models import Distance, VectorParams from qdrant_client.http.models import Filter, FieldCondition, MatchValue client = qdrant_client.QdrantClient( url='10.0.180.16:7541', prefer_grpc=False ) ### 创建collection client.create_collection( collection_name="test_collection", vectors_config=VectorParams(size=4, distance=Distance.DOT), ) ### 写入 operation_info = client.upsert( collection_name="test_collection", wait=True, points=[ PointStruct(id=1, vector=[0.05, 0.61, 0.76, 0.74], payload={"page_content": "Berlin", "metadata":{"language": "ru", "recodeid": 523622}}), PointStruct(id=2, vector=[0.19, 0.81, 0.75, 0.11], payload={"page_content": "London", "metadata":{"language": "xx", "recodeid": 523622}}), ], ) ### 带条件查询 search_result = client.search( collection_name="test_collection", query_vector=[0.2, 0.1, 0.9, 0.7], query_filter=Filter( must=[FieldCondition(key="metadata.language", match=MatchValue(value="xx"))] ), with_payload=True, limit=3, ) print(search_result)
FAISS 用法
Faiss是一个高效地稠密向量相似检索和聚类的工具包,
由Facebook开发,由C++编写,并且提供了python2和python3的封装。
安装
pip install faiss-cpu
pip install faiss-gpu
用法
- xb 对于数据库,它包含所有必须编入索引的向量,并且我们将搜索它。它的大小是nb-by-d
- xq对于查询向量,我们需要找到最近的邻居。它的大小是nq-by-d。如果我们只有一个查询向量,则nq = 1
import numpy as np d = 3 # dimension nb = 5 # database size 从多少个里面找最近的 nq = 2 # nb of queries 有多少个被查找的 xb = np.array([[1, 1, 1], [1.2, 1.3, 1.2], [3, 3, 3], [5, 5, 5], [5.2, 5.3, 5.2]]).astype('float32') # xb[:, 0] += np.arange(nb) / 1000. xq = np.array([[1.1, 1, 1], [5.2, 5.2, 5.2]]).astype('float32') # xq[:, 0] += np.arange(nq) / 1000. import faiss # make faiss available index = faiss.IndexFlatL2(d) # build the index print(index.is_trained) index.add(xb) # add vectors to the index print(index.ntotal) k = 4 # we want to see 4 nearest neighbors D, I = index.search(xb[:5], k) # sanity check print(I) # [[0 1 2 3] 第一行代表 和 xb[0]即[1.1, 1, 1] 最近的 4个元素,由近及远 # [1 0 2 3] 第二行代表 和 xb[1]即[1.2, 1.3, 1.2] 最近的 4个元素,由近及远 # [2 1 0 3] # [3 4 2 1] # [4 3 2 1]] print(D) # [[ 0. 0.17000002 12. 48. ] 对应上面的实际距离 # [ 0. 0.17000002 9.37 42.57 ] # [ 0. 9.37 12. 12. ] # [ 0. 0.16999996 12. 42.57 ] # [ 0. 0.16999996 14.969999 47.999996 ]] D, I = index.search(xq, k) # actual search print(I[:5]) # neighbors of the 5 first queries print(I[-5:])
Chroma 用法
非 langchain 用法
import chromadb # 获取Chroma Client对象 chroma_client = chromadb.Client() # 创建Chroma数据集 collection = chroma_client.create_collection(name="my_collection") # 添加数据 collection.add( documents=["This is an apple", "This is a banana"], metadatas=[{"source": "my_source"}, {"source": "my_source"}], ids=["id1", "id2"] ) # 查询数据 results = collection.query( query_texts=["This is a query document"], n_results=2 ) results
langchain 统一用法
暂未验证
### 创建VectorStore对象 # 通过HuggingFace创建embedding_function embeddings = HuggingFaceEmbeddings(model_name=model) # 创建VectorStore的具体实现类Chroma对象,并指定collection_name和持久化目录 vector = Chroma(collection_name = 'cname', embedding_function=embeddings,persist_directory='/vs') # 先将文本拆分并转化为doc loader = TextLoader(url,autodetect_encoding = True) docs = loader.load() text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200) splits = text_splitter.split_documents(docs) # 插入向量数据库 vector.add_documents(documents=splits) ### # 删除id为1的doc对象 vector.delete('1') ### # 根据file_id的条件,查询到所有符合的doc对象的id reuslt = vector.get(where={"file_id":file_id}) # 使用delete方法,批量删除这些id对应的doc对象 if reuslt['ids'] : vector.delete(reuslt['ids']) ### # 删除id为2的doc对象 vector.delete('2') # 插入新的doc对象 vector.add_documents(new_doc) ### # 查询与“语义检索”最相似的doc对象 docs = vector.similarity_search("语义检索") # 打印查询结果 for doc in docs: print(doc) # 查询与“语义检索”最相似的doc对象,并返回分数 docs_with_score = vector.similarity_search_with_score("语义检索") # 打印查询结果和分数 for doc_with_score in docs_with_score: print(doc_with_score[0], doc_with_score[1]) ### # 查询与“LangChain”相关的但不相似的doc对象 docs = vector.max_marginal_relevance_search("LangChain") # 打印查询结果 for doc in docs: print(doc)
出自 https://mp.weixin.qq.com/s/USTWPFyseZt6rEgZbLrUtA
参考资料:
https://mp.weixin.qq.com/s/URSOuAAKhm9HzcAHCaQklw 智王点评:六大向量数据库
https://mp.weixin.qq.com/s/46ry2XXmW0kEXPeaDFKyTg 如何选择一个向量数据库|Qdrant Cloud v.s. Zilliz Cloud
Zilliz联手英伟达发布全球首个GPU加速向量数据库!CUDA加持性能飙升50倍,未来十年或暴涨1000倍-腾讯云开发者社区-腾讯云 (tencent.com)
https://qdrant.tech/documentation/guides/installation/ Qdrant 官网
Qdrant向量数据库-CSDN博客 纯python
https://www.jianshu.com/p/43db601b8af1 faiss 学习笔记(一) | 三种基础索引方式学习
https://zhuanlan.zhihu.com/p/67200902 Faiss库使用方法(一)
未研究
https://mp.weixin.qq.com/s/W7hVVBuxiCDkHYdaQxjX1g 使用LangChain和Qdrant进行无样板代码的问答
https://mp.weixin.qq.com/s/Q1RppVV8Fdti6hIIfCvCVw Qdrant不只是高性能向量数据库
https://mp.weixin.qq.com/s/YOpNf34QIp9im8aA9LMvGw 将Milvus作为 OpenAI 嵌入的向量数据库
https://mp.weixin.qq.com/s/9NB7UUFr_nOwL3CRfcsdtA Milvus 向量数据库的应用场景
https://mp.weixin.qq.com/s/qNCEDFsaGDjcH6g5z-y2xw 大模型应用之Milvus向量数据库实践
https://mp.weixin.qq.com/s/dOrcbQnaWrDxz5lw9aZaBg 5 分钟内搭建一个免费问答机器人:Milvus + LangChain
https://mp.weixin.qq.com/s/jzWlwgOMkYs4CNz1UlP0Rw 【开源】向量数据库
https://mp.weixin.qq.com/s/YENmch0b4rbNJ73bvBLUpQ 大模型中间件 向量数据库原理和选择