Documentation Index
Fetch the complete documentation index at: https://docs.apiyi.com/llms.txt
Use this file to discover all available pages before exploring further.
概念定义
向量数据库是专门用于存储、索引和检索高维向量数据的数据库系统,支持基于相似度的快速查询,是构建语义搜索、推荐系统和AI应用的关键基础设施。
详细解释
什么是向量数据库?
向量数据库解决了传统数据库无法高效处理高维向量相似度查询的问题。它们使用专门的索引算法和数据结构,能够在数十亿向量中毫秒级找到最相似的结果。
核心功能
- 向量存储:高效存储高维浮点数组
- 相似度搜索:快速找到最相似的K个向量
- 实时更新:支持向量的增删改查
- 元数据过滤:结合属性进行混合查询
- 分布式扩展:支持水平扩展到数十亿规模
与传统数据库的区别
- 查询方式:相似度查询 vs 精确匹配
- 数据类型:连续向量 vs 结构化数据
- 索引算法:ANN算法 vs B树/哈希
- 使用场景:AI应用 vs 事务处理
形象比喻想象一个巨大的多维空间图书馆:
- 传统数据库:按照书名、作者精确查找
- 向量数据库:找到”内容相似”的书籍
- 检索方式:不是翻目录,而是在空间中寻找邻近的书
- 应用价值:发现你不知道书名但内容相关的书籍
向量数据库让”模糊搜索”和”语义理解”成为可能。
技术架构
主流产品对比(2024)
商业化产品
| 产品 | 类型 | 优势 | 劣势 | 适用场景 |
|---|
| Pinecone | SaaS | 零运维、弹性扩展 | 成本较高、数据主权 | 快速原型、中小规模 |
| Zilliz Cloud | 托管Milvus | 性能优秀、功能完整 | 学习曲线 | 大规模生产环境 |
| Qdrant | 开源+云 | 性能最佳、Rust实现 | 生态较新 | 高性能要求 |
| 腾讯VectorDB | PaaS | 国内合规、稳定性高 | 功能相对简单 | 国内企业应用 |
开源方案
| 产品 | 语言 | 特点 | GitHub Stars | 更新活跃度 |
|---|
| Milvus | Go/C++ | 功能最全、生态成熟 | 25k+ | ⭐⭐⭐⭐⭐ |
| Weaviate | Go | GraphQL接口、知识图谱 | 8k+ | ⭐⭐⭐⭐ |
| Chroma | Python | 轻量简单、易集成 | 6k+ | ⭐⭐⭐⭐ |
| Qdrant | Rust | 性能优异、内存效率 | 9k+ | ⭐⭐⭐⭐⭐ |
数据库插件方案
2024年趋势:向量搜索插件成为主流
-- PostgreSQL + pgvector
CREATE EXTENSION vector;
CREATE TABLE items (
id bigserial PRIMARY KEY,
content text,
embedding vector(1536)
);
-- 创建索引
CREATE INDEX ON items USING ivfflat (embedding vector_cosine_ops)
WITH (lists = 100);
-- 相似度查询
SELECT content, embedding <=> '[0.1, 0.2, ...]' AS distance
FROM items
ORDER BY distance
LIMIT 5;
2024年市场洞察根据最新趋势分析:
- 专用向量数据库降温:小规模需求直接用OpenAI,标准需求被SQL+向量插件满足
- 融合是趋势:经典数据库+向量扩展成为主流(如pgvector、MySQL向量、MongoDB Atlas)
- 性能差距缩小:优化后的插件方案性能接近专用产品
- 成本优势明显:复用现有基础设施,降低运维成本
性能基准测试(2024)
查询性能对比
测试条件:100万向量,768维度,HNSW索引
| 数据库 | QPS | P50延迟 | P99延迟 | 内存占用 |
|---|
| Qdrant | 4200 | 2.3ms | 8.5ms | 8GB |
| Milvus | 3500 | 2.8ms | 12ms | 10GB |
| Pinecone | 3000 | 3.3ms | 15ms | N/A |
| Weaviate | 2800 | 3.5ms | 18ms | 12GB |
| pgvector | 1500 | 6.5ms | 25ms | 6GB |
扩展性对比
10亿向量规模测试
- Milvus/Zilliz:分布式架构,线性扩展
- Pinecone:自动分片,但需手动重分片
- Qdrant:静态分片,扩展需重新分片
- Chroma:单节点限制,不支持分布式
实际应用
快速开始示例
使用Qdrant构建语义搜索
from qdrant_client import QdrantClient
from qdrant_client.models import Distance, VectorParams, PointStruct
import numpy as np
# 初始化客户端
client = QdrantClient("localhost", port=6333)
# 创建集合
client.create_collection(
collection_name="articles",
vectors_config=VectorParams(size=768, distance=Distance.COSINE),
)
# 插入向量
points = [
PointStruct(
id=idx,
vector=embedding.tolist(),
payload={"title": title, "content": content}
)
for idx, (title, content, embedding) in enumerate(documents)
]
client.upsert(collection_name="articles", points=points)
# 搜索相似文档
search_result = client.search(
collection_name="articles",
query_vector=query_embedding.tolist(),
limit=5,
query_filter={
"must": [{"key": "category", "match": {"value": "technology"}}]
}
)
使用Milvus的生产级配置
from pymilvus import connections, Collection, FieldSchema, CollectionSchema, DataType
# 连接配置
connections.connect(
alias="default",
host='localhost',
port='19530'
)
# 定义schema
fields = [
FieldSchema(name="id", dtype=DataType.INT64, is_primary=True),
FieldSchema(name="embedding", dtype=DataType.FLOAT_VECTOR, dim=768),
FieldSchema(name="title", dtype=DataType.VARCHAR, max_length=200),
FieldSchema(name="timestamp", dtype=DataType.INT64)
]
schema = CollectionSchema(fields, "文章向量集合")
# 创建集合
collection = Collection("articles", schema)
# 创建索引(重要!)
index_params = {
"metric_type": "IP", # 内积
"index_type": "IVF_FLAT",
"params": {"nlist": 2048}
}
collection.create_index(
field_name="embedding",
index_params=index_params
)
# 加载到内存
collection.load()
RAG应用集成
完整的RAG流程
class VectorRAG:
def __init__(self, vector_db, embedding_model, llm):
self.vector_db = vector_db
self.embedding_model = embedding_model
self.llm = llm
def add_documents(self, documents):
"""添加文档到向量数据库"""
for doc in documents:
# 1. 文本分块
chunks = self.split_text(doc.content)
# 2. 生成嵌入
embeddings = self.embedding_model.encode(chunks)
# 3. 存储到向量数据库
self.vector_db.insert(
embeddings=embeddings,
metadatas=[{
"doc_id": doc.id,
"chunk_id": i,
"text": chunk
} for i, chunk in enumerate(chunks)]
)
def query(self, question, top_k=5):
"""RAG查询流程"""
# 1. 问题向量化
query_embedding = self.embedding_model.encode(question)
# 2. 向量检索
results = self.vector_db.search(
query_embedding,
top_k=top_k
)
# 3. 构建上下文
context = "\n".join([r.metadata["text"] for r in results])
# 4. 生成回答
prompt = f"""基于以下信息回答问题:
{context}
问题:{question}
"""
return self.llm.generate(prompt)
选择策略
决策树
推荐方案
场景1:快速原型开发
# 推荐:Chroma(轻量级、易上手)
import chromadb
client = chromadb.Client()
collection = client.create_collection("demo")
collection.add(
embeddings=[[1.0, 2.0, 3.0]],
documents=["示例文档"],
ids=["doc1"]
)
场景2:生产环境
# 推荐:Milvus + Docker Compose
version: '3.5'
services:
etcd:
image: quay.io/coreos/etcd:v3.5.5
minio:
image: minio/minio:latest
milvus:
image: milvusdb/milvus:latest
depends_on:
- etcd
- minio
场景3:现有PostgreSQL用户
-- 推荐:pgvector(复用基础设施)
ALTER SYSTEM SET shared_preload_libraries = 'vector';
CREATE EXTENSION vector;
-- 优化配置
ALTER SYSTEM SET max_parallel_workers_per_gather = 4;
ALTER SYSTEM SET effective_cache_size = '4GB';
避坑指南
- 索引类型选择:数据量小用FLAT,中等用IVF,大规模用HNSW
- 维度诅咒:超过1000维性能急剧下降,考虑降维
- 冷启动问题:索引构建耗时,预留足够时间
- 内存需求:HNSW索引需要大量内存,提前规划
- 版本兼容:嵌入模型更新可能导致向量空间变化
未来展望
2024-2025技术趋势
向量数据库2.0
- 混合查询:向量+结构化数据的统一查询
- 多模态支持:文本、图像、音频统一索引
- 智能索引:自适应选择最优索引结构
- 联邦学习:分布式向量数据的隐私计算
市场整合
- 专用向量数据库公司被收购或转型
- 主流数据库全面支持向量功能
- 云服务商推出一站式向量解决方案
- 开源社区主导技术创新方向
相关概念
延伸阅读