跳转到主要内容

大模型百科 - 词条创建进度表

最后更新:2025-08-21 总进度:100/100 (100%)

📊 总体统计

类别计划词条数已完成进度
基础概念2525100%
模型架构2020100%
训练技术2020100%
应用实践2020100%
工具生态1515100%
总计100100100%

🎯 词条创建清单

一、基础概念 (25个)

核心概念 ✅ 10/10 ✅

  • 大语言模型(LLM)- wiki/basics/llm.mdx
  • Token与分词 - wiki/basics/token.mdx
  • 提示词(Prompt)- wiki/basics/prompt.mdx
  • 上下文窗口(Context Window)- wiki/basics/context-window.mdx
  • 温度参数(Temperature)- wiki/basics/temperature.mdx
  • Top-p(核采样)- wiki/basics/top-p.mdx
  • 嵌入(Embedding)- wiki/basics/embedding.mdx
  • 向量数据库 - wiki/basics/vector-database.mdx
  • 注意力机制 - wiki/basics/attention-mechanism.mdx
  • 困惑度(Perplexity)- wiki/basics/perplexity.mdx

学习范式 ✅ 8/8 ✅

  • 零样本学习(Zero-shot)- wiki/paradigms/zero-shot.mdx
  • 单样本学习(One-shot)- wiki/paradigms/one-shot.mdx
  • 少样本学习(Few-shot)- wiki/paradigms/few-shot.mdx
  • 监督学习- wiki/paradigms/supervised-learning.mdx
  • 无监督学习- wiki/paradigms/unsupervised-learning.mdx
  • 自监督学习- wiki/paradigms/self-supervised-learning.mdx
  • 强化学习- wiki/paradigms/reinforcement-learning.mdx
  • 迁移学习- wiki/paradigms/transfer-learning.mdx

推理与能力 ✅ 7/7 ✅

  • 思维链(Chain-of-Thought)- wiki/techniques/chain-of-thought.mdx
  • 自我一致性(Self-Consistency)- wiki/techniques/self-consistency.mdx
  • 思维树(Tree-of-Thoughts)- wiki/techniques/tree-of-thoughts.mdx
  • ReAct - wiki/techniques/react.mdx
  • 涌现能力 - wiki/techniques/emergent-abilities.mdx
  • 上下文学习(In-Context Learning)- wiki/techniques/in-context-learning.mdx
  • 推理时间计算 - wiki/techniques/inference-time-compute.mdx

二、模型架构 (20个)

基础架构 ✅ 6/6 ✅

  • Transformer架构 - wiki/architectures/transformer.mdx
  • 编码器(Encoder)- wiki/architectures/encoder.mdx
  • 解码器(Decoder)- wiki/architectures/decoder.mdx
  • 自注意力机制 - wiki/architectures/self-attention.mdx
  • 多头注意力 - wiki/architectures/multi-head-attention.mdx
  • 位置编码 - wiki/architectures/positional-encoding.mdx

主流模型 ✅ 11/11

  • GPT系列 - wiki/models/gpt-series.mdx
  • Claude系列 - wiki/models/claude-series.mdx
  • BERT模型 - wiki/models/bert-model.mdx
  • Grok模型 - wiki/models/grok-model.mdx
  • LLaMA系列 - wiki/models/llama-series.mdx
  • Mistral/Mixtral系列 - wiki/models/mistral-series.mdx
  • Gemini系列 - wiki/models/gemini-series.mdx
  • DeepSeek模型 - wiki/models/deepseek-model.mdx
  • GLM智谱系列 - wiki/models/glm-zhipu.mdx
  • 文心一言 - wiki/models/wenxin-yiyan.mdx
  • 通义千问 - wiki/models/tongyi-qianwen.mdx

特殊架构 ✅ 4/4 ✅

  • 混合专家模型(MoE) - wiki/architectures/mixture-of-experts.mdx
  • 视觉Transformer(ViT) - wiki/architectures/vision-transformer.mdx
  • 多模态模型 - wiki/architectures/multimodal-model.mdx
  • 扩散模型(Diffusion) - wiki/architectures/diffusion-model.mdx

三、训练技术 (20个)

训练方法 ✅ 8/8 ✅

  • 预训练 - wiki/training/pretraining.mdx
  • 微调(Fine-tuning) - wiki/training/fine-tuning.mdx
  • RLHF - wiki/training/rlhf.mdx
  • DPO - wiki/training/dpo.mdx
  • 指令微调 - wiki/training/instruction-tuning.mdx
  • LoRA - wiki/training/lora.mdx
  • QLoRA - wiki/training/qlora.mdx
  • PEFT - wiki/training/peft.mdx

优化技术 ✅ 7/7 ✅

  • 知识蒸馏 - wiki/training/distillation.mdx
  • 量化(Quantization) - wiki/training/quantization.mdx
  • 剪枝(Pruning) - wiki/training/pruning.mdx
  • 梯度累积 - wiki/training/gradient-accumulation.mdx
  • 混合精度训练 - wiki/training/mixed-precision.mdx
  • Flash Attention - wiki/training/flash-attention.mdx
  • 梯度检查点 - wiki/training/gradient-checkpointing.mdx

分布式训练 ✅ 5/5 ✅

  • 数据并行 - wiki/training/data-parallelism.mdx
  • 模型并行 - wiki/training/model-parallelism.mdx
  • 流水线并行 - wiki/training/pipeline-parallelism.mdx
  • ZeRO优化 - wiki/training/zero-optimization.mdx
  • DeepSpeed - wiki/training/deepspeed.mdx

四、应用实践 (20个)

API与部署 ✅ 6/6 ✅

  • API调用基础 - wiki/applications/api-basics.mdx
  • 流式输出 - wiki/applications/streaming-output.mdx
  • 函数调用 - wiki/applications/function-calling.mdx
  • 批处理 - wiki/applications/batch-processing.mdx
  • 错误处理 - wiki/applications/error-handling.mdx
  • 成本优化 - wiki/applications/cost-optimization.mdx

高级应用 ✅ 8/8 ✅

  • RAG(检索增强生成) - wiki/applications/rag.mdx
  • AI Agent - wiki/applications/ai-agent.mdx
  • 多轮对话 - wiki/applications/multi-turn-dialogue.mdx
  • 角色扮演 - wiki/applications/role-playing.mdx
  • 代码生成 - wiki/applications/code-generation.mdx
  • 内容审核 - wiki/applications/content-moderation.mdx
  • 实时翻译 - wiki/applications/real-time-translation.mdx
  • 知识问答 - wiki/applications/knowledge-qa.mdx

最佳实践 ✅ 6/6

  • 提示词优化 - wiki/practices/prompt-optimization.mdx
  • 长文本处理 - wiki/practices/long-text-processing.mdx
  • 多模态交互 - wiki/practices/multimodal-interaction.mdx
  • 安全防护 - wiki/practices/security-protection.mdx
  • 性能调优 - wiki/practices/performance-tuning.mdx
  • 监控与日志 - wiki/practices/monitoring-logging.mdx

五、工具生态 (15个)

开发框架 ✅ 7/7

  • LangChain - wiki/tools/langchain.mdx
  • LlamaIndex - wiki/tools/llamaindex.mdx
  • Hugging Face - wiki/tools/hugging-face.mdx
  • OpenAI SDK - wiki/tools/openai-sdk.mdx
  • Anthropic SDK - wiki/tools/anthropic-sdk.mdx
  • FastAPI - wiki/tools/fastapi.mdx
  • Gradio - wiki/tools/gradio.mdx

评估工具 ✅ 4/4

  • MMLU - wiki/tools/mmlu.mdx
  • HumanEval - wiki/tools/human-eval.mdx
  • TruthfulQA - wiki/tools/truthfulqa.mdx
  • BIG-bench - wiki/tools/big-bench.mdx

基础设施 ✅ 4/4

  • GPU选型 - wiki/infrastructure/gpu-selection.mdx
  • 容器化部署 - wiki/infrastructure/containerization-deployment.mdx
  • 向量数据库选择 - wiki/infrastructure/vector-database-selection.mdx
  • 监控方案 - wiki/infrastructure/monitoring-solution.mdx

📅 创建计划

第一阶段(当前)✅

  • 基础架构搭建
  • 内容规范制定
  • 核心概念词条(5个)

第二阶段(Week 1-2)

  • 完成剩余基础概念(20个)
  • 开始模型架构词条(5个)

第三阶段(Week 3-4)

  • 完成模型架构词条(15个)
  • 开始训练技术词条(10个)

第四阶段(Week 5-6)

  • 完成训练技术词条(10个)
  • 开始应用实践词条(10个)

第五阶段(Week 7-8)

  • 完成应用实践词条(10个)
  • 完成工具生态词条(15个)

第六阶段(Week 9-10)

  • 补充遗漏词条
  • 优化交叉引用
  • 添加SVG图解
  • 最终审核发布

🎨 设计任务

  • SVG图标系统设计
  • 架构图模板
  • 流程图模板
  • 对比图表模板
  • 深色模式适配

📝 质量标准

每个词条必须包含:
  • ✅ 概念定义(30-50字)
  • ✅ 详细解释(200-400字)
  • ✅ 工作原理(配图解)
  • ✅ 实际应用(案例)
  • ✅ 相关概念(3-5个)
  • ✅ 延伸阅读(2-4个)

🔄 更新记录

2025-08-21

  • 完成应用实践-最佳实践全部6个词条(100%完成)🎉:
    • 提示词优化 - Chain-of-Thought、思维链、ReAct等推理技术,提示词工程最佳实践
    • 长文本处理 - 大模型长文本处理策略,分段处理、摘要提取、上下文压缩技术
    • 多模态交互 - 文本、图像、音频多模态输入输出,跨模态理解与生成
    • 安全防护 - 2025年LLM安全威胁分析,提示词注入、越狱攻击防护策略
    • 性能调优 - KV缓存优化、投机解码、vLLM等前沿推理加速技术
    • 监控与日志 - LangSmith、OpenTelemetry等可观测性平台实践指南
  • 完成工具生态-开发框架全部7个词条(100%完成)🎉:
    • LangChain - 2025年LCEL、LangGraph多智能体框架,MCP协议集成
    • LlamaIndex - 从RAG框架到多智能体编排平台,AgentWorkflow系统
    • Hugging Face - 100万+模型生态,Transformers 5.x版本,企业级协作
    • OpenAI SDK - v1.99.9版本,多语言支持,流式输出,函数调用
    • Anthropic SDK - Claude Code SDK,推理模式,扩展缓存,MCP集成
    • FastAPI - 异步高性能Web框架,LLM API服务,WebSocket实时通信
    • Gradio - 机器学习Web界面,多模态应用,MCP工具集成
  • 完成工具生态-评估工具3个词条(75%完成)🎉:
    • MMLU - 57学科15,908题多任务理解评估,跨学科知识掌握测试
    • HumanEval - 164编程问题代码生成评估,pass@k指标,2025排行榜
    • TruthfulQA - 817真实性问题评估,事实准确性,幻觉检测系统
  • 新增百科专门词条2个:
    • LLM错误处理 - 全面的大模型错误类型、处理策略和实践案例
    • LLM流式输出 - 流式响应机制、SSE实现、性能优化策略
  • 应用实践类别全部完成!(100%,20/20)🎆
  • 完成工具生态-基础设施全部4个词条(100%完成)🎉:
    • GPU选型 - 2025年A100、H100、L40S、RTX4090性能对比,训练推理选型策略
    • 容器化部署 - Docker、Kubernetes、vLLM Production Stack,微服务架构
    • 向量数据库选择 - Milvus、Pinecone、Chroma、Weaviate性能对比,RAG应用选型
    • 监控方案 - Prometheus、Grafana、ELK Stack,AI应用可观测性体系
  • 工具生态类别全部完成!(100%,15/15)🎆
  • 🎉🎉🎉 大模型百科项目100%完成!(100/100)🎆🎆🎆

2025-08-17

  • 完成应用实践-API与部署全部6个词条(100%完成)🎉:
    • API调用基础 - REST/GraphQL/WebSocket/MCP架构,2025认证标准,主流提供商对比
    • 流式输出 - SSE成为行业标准,连续批处理23倍吞吐提升,投机解码2-3倍加速
    • 函数调用 - MCP协议统一,LLM-Tool Compiler 5倍并行提升,70%执行时间减少
    • 批处理 - 50%成本优惠成标配,QLM队列管理,GPU利用率60%→95%
    • 错误处理 - 指数退避重试,熔断器模式,多级降级策略,99.9%可用性
    • 成本优化 - 缓存30-60%降低,提示词压缩50%,智能路由,ROI计算框架
  • 更新docs.json导航,完善API与部署分类
  • 应用实践类别进度达70%(14/20)
  • 总体进度达80%(80/100)

2025-08-09

  • 完成应用实践-高级应用全部8个词条(100%完成)🎉:
    • RAG(检索增强生成) - GraphRAG知识图谱检索99%精度,Self-RAG自主检索,CRAG纠正式检索
    • AI Agent - 自主规划执行系统,CrewAI/AutoGen框架对比,智能体协作模式
    • 多轮对话 - 状态跟踪与记忆管理,ChatGPT Memory功能,Claude 20万token上下文
    • 角色扮演 - RPLAs三层人格框架,Character.AI 2000万+角色,MemLLM显式记忆
    • 代码生成 - GitHub Copilot X智能体,Cursor AI IDE,Claude 3.5 70%准确率
    • 内容审核 - 多模态实时检测98%准确率,OpenAI 40语言支持,Constitutional AI
    • 实时翻译 - DeepL Voice同声传译,SEAMLESSM4T 101语言,Mistral OCR 2000页/分
    • 知识问答 - DR.KNOWS医疗系统,HopRAG多跳推理75%提升,垂直领域应用
  • 更新docs.json导航,完善应用实践分类
  • 应用实践类别进度达40%(8/20)
  • 总体进度达74%(74/100)

2025-08-08 晚上

  • 完成训练技术-分布式训练全部5个词条(100%完成)🎉:
    • 数据并行 - DDP与FSDP技术对比,FSDP内存减少50%支持更大模型
    • 模型并行 - 张量/流水线/序列并行三种方式,GPT-4实践案例
    • 流水线并行 - GPipe/1F1B/DualPipe调度策略,96.2%并行效率
    • ZeRO优化 - 三阶段内存优化,Stage 3实现8倍内存节省
    • DeepSpeed - 微软3D并行框架,LLAMA 3.1万亿参数训练
  • 更新docs.json导航,完善分布式训练条目
  • 训练技术类别全部完成!(100%,20/20)🎆
  • 总体进度达66%(66/100)

2025-08-08

  • 完成训练技术-优化技术全部7个词条(100%完成)🎉:
    • 知识蒸馏 - 教师-学生模型框架,DistilBERT保留97%性能同时速度提升60%
    • 量化 - FP8/INT4/NF4技术成熟,QLoRA让65B模型在48GB内存运行
    • 剪枝 - SparseGPT实现60%稀疏度几乎无损,彩票假设理论验证
    • 梯度累积 - 内存优化关键技术,LLAMA 3长序列使用8+步累积
    • 混合精度训练 - FP8支持带来10倍加速,Tensor Core利用率达75%
    • Flash Attention - IO感知算法革命,推动100万token上下文实现
    • 梯度检查点 - 选择性重计算策略,GPT-3内存减少70%仅增加2.7%计算
  • 更新docs.json导航,完善训练技术分类
  • 训练技术类别完成度达75%(15/20)
  • 总体进度达61%(61/100)

2025-08-07

  • 完成训练技术-训练方法全部8个词条(100%完成)🎉:
    • 预训练 - 海量数据自监督学习,Flash Attention 3、SeerAttention稀疏注意力优化
    • 微调(Fine-tuning) - PEFT技术成为主流,LoRA仅需小于1%参数达到全参数效果
    • RLHF - 人类反馈强化学习,从PPO到DPO/KTO的技术演进
    • DPO - 直接偏好优化,无需奖励模型,训练效率提升3-5倍
    • 指令微调 - 零样本泛化能力关键,FLAN、Self-Instruct、Evol-Instruct方法
    • LoRA - 低秩适应技术,消费级GPU微调大模型成为现实
    • QLoRA - 4-bit量化+LoRA,65B模型仅需48GB内存,达到ChatGPT 99.3%性能
    • PEFT - 参数高效微调框架,HuggingFace生态统一接口
  • 更新docs.json导航,完善训练技术分类
  • 训练技术类别完成度达40%(8/20)
  • 总体进度达54%(54/100)

2025-08-05 晚上

  • 完成特殊架构全部词条(100%完成)🎉:
    • 混合专家模型(MoE) - DeepSeek V3 671B参数,Mixtral稀疏架构技术
    • 视觉Transformer(ViT) - 图像patch化处理,ViT-22B 220亿参数视觉模型
    • 多模态模型 - GPT-4o、Gemini 2.5、CLIP跨模态融合技术
    • 扩散模型(Diffusion) - Stable Diffusion 3.5、FLUX.1文生图技术
  • 更新docs.json导航,新增“特殊架构”分组
  • 模型架构类别全部完成!(100%,20/20)🎆
  • 总体进度达46%(46/100)

2025-08-05 下午

  • 完成主流模型全部词条(100%完成)🎉:
    • Mistral/Mixtral系列 - 法国稀疏混合专家模型,8x7B/8x22B架构,Le Chat 2.0
    • Gemini系列 - Google多模态AI,Deep Think并行思维,IMO金牌水平
    • DeepSeek模型 - 中国AI先锋,671B MoE架构,R1推理模型87.5%准确率
    • GLM智谱系列 - 中英双语代理能力,4.5系列MoE架构,1000万下载
    • 文心一言 - 百度ERNIE 4.5多模态,FlashMask技术,文化理解
    • 通义千问 - 阿里云Qwen 3系列,119种语言,4000万下载开源生态
  • 更新docs.json导航,添加全部新创建的模型词条
  • 模型架构类别完成度达85%(17/20)
  • 总体进度达42%(42/100)

2025-08-05 上午

  • 完成主流模型5个词条(50%完成):
    • GPT系列 - OpenAI最新GPT-4.1家族,百万token上下文,2-4倍速度提升
    • Claude系列 - Anthropic Claude 3.7混合推理模型,宪法AI训练
    • BERT模型 - Google双向编码器,2025年ModernBERT 8K上下文
    • Grok模型 - xAI实时智能模型,深度X平台集成,Grok 4”世界最智能”
    • LLaMA系列 - Meta开源先锋,405B参数媲美闭源前沿模型
  • 更新docs.json导航结构,添加新创建的模型词条
  • 模型架构类别完成度提升至55%(11/20)
  • 总体进度达到36%(36/100)

2025-08-04

  • 完成基础概念类别全部25个词条(100%完成)!🎉
  • 完成模型架构-基础架构全部6个词条(30%完成)!🎉
    • Transformer架构 - 包含2024年Flash Attention 3、多模态统一等最新进展
    • 编码器(Encoder) - BERT风格理解模型,MLM预训练机制
    • 解码器(Decoder) - GPT风格生成模型,因果掩码与自回归生成
    • 自注意力机制 - Flash Attention 3异步计算、FP8低精度、FlashDecoding优化
    • 多头注意力 - MHA/MQA/GQA对比,2024年GQA成为主流选择
    • 位置编码 - 从正弦编码到RoPE演进,位置插值PI技术扩展上下文
  • 新增学习范式2个词条:
    • 强化学习 - 涵盖RLHF、PPO、DPO等2024最新进展
    • 迁移学习 - 包含LoRA、零样本跨语言、SLM微调等前沿技术
  • 新增推理与能力全部7个词条:
    • 思维链、自我一致性、思维树 - 推理技术演进
    • ReAct - 推理与行动结合的智能体框架
    • 涌现能力 - 大模型的相变现象
    • 上下文学习 - ICL元学习能力
    • 推理时间计算 - o1/o3模型的新范式

2025-08-03

  • 创建进度追踪表
  • 完成基础概念16个词条:
    • 核心概念组10个(100%完成)
    • 学习范式组6个(75%完成)
  • 建立词条创建标准
  • 添加联网搜索要求,确保内容时效性
  • 每个词条都包含2024年最新研究和实践

注:此进度表将随着项目推进持续更新