API易文档中心 home page
Search...
⌘K
注册使用
控制台
控制台
Search...
Navigation
学习范式
迁移学习
首页
使用场景
资源导航
常见问题
大模型百科
基础概念
大语言模型(LLM)
Token与分词
提示词(Prompt)
上下文窗口(Context Window)
温度参数(Temperature)
Top-p(核采样)
嵌入(Embedding)
向量数据库
注意力机制
困惑度(Perplexity)
学习范式
零样本学习(Zero-shot)
单样本学习(One-shot)
少样本学习(Few-shot)
监督学习(Supervised Learning)
无监督学习(Unsupervised Learning)
自监督学习(Self-supervised Learning)
强化学习
迁移学习
推理与能力
思维链
自我一致性
思维树
React
涌现能力
上下文学习
推理时间计算
基础架构
Transformer架构
编码器
解码器
自注意力机制
多头注意力
位置编码
主流模型
GPT系列
Claude系列
Gemini系列
LLaMA系列
Mistral/Mixtral系列
DeepSeek模型
GLM智谱系列
文心一言
通义千问
BERT模型
Grok模型
训练技术
Fine tuning
Lora
Rlhf
Distillation
应用实践
Rag
Agent
Function calling
Embedding
工具生态
Langchain
Huggingface
Api frameworks
Evaluation
On this page
概念定义
详细解释
工作原理
实际应用
大模型微调实践
典型应用场景
相关概念
延伸阅读
学习范式
迁移学习
将从一个任务中学到的知识应用到相关任务的学习方法,是大模型预训练-微调范式的理论基础
概念定义
迁移学习是一种将从源任务中学到的知识和经验应用到相关目标任务的机器学习方法,让模型能够利用已有知识快速适应新任务。
详细解释
迁移学习(Transfer Learning)是深度学习领域的核心技术之一,其基本思想是利用在大规模数据集上预训练的模型作为起点,通过少量目标任务数据进行微调,实现知识的跨任务、跨领域传递。这种方法极大地降低了训练成本和数据需求,是当前大语言模型”预训练-微调”范式的理论基础。
在大模型时代,迁移学习的重要性更加凸显。GPT、BERT、LLaMA等基础模型通过海量数据预训练获得通用语言理解能力,然后通过各种形式的迁移学习(如指令微调、领域适应、跨语言迁移)适应特定任务。2024年的研究表明,通过参数高效微调方法如LoRA,可以在保持模型原有能力的同时,高效地实现知识迁移。
迁移学习的成功依赖于源任务和目标任务之间的相似性。当两个任务共享底层特征或结构时,迁移效果最佳。反之,如果任务差异过大,可能出现负迁移现象,即源任务的知识反而干扰目标任务的学习。
工作原理
迁移学习的核心步骤:
源任务预训练
:在大规模数据上训练基础模型
知识提取
:识别可迁移的特征和表示
目标任务适应
:通过微调或提示适应新任务
性能优化
:平衡通用能力和特定任务性能
实际应用
大模型微调实践
2024年最新进展
:
LlamaIT方法
:针对领域特定机器翻译的提示导向微调
构建任务特定混合领域数据集
使用LoRA进行参数高效微调
保持零样本能力的同时提升领域性能
跨语言零样本迁移
:
仅在英文数据上指令微调即可实现多语言能力
大规模指令数据是保持跨语言能力的关键
2024研究显示需要考虑多语言性的超参数调优
顺序微调策略
:
从通用语言→医疗语言→儿科心脏病学的逐步迁移
每一步都保留并增强前一步的知识
典型应用场景
领域适应
:
医疗诊断:通用模型→医疗文本→特定疾病
法律文书:通用模型→法律语料→特定法域
金融分析:通用模型→金融报告→风险评估
少样本学习
:
利用预训练知识实现快速任务适应
仅需少量标注数据即可达到良好性能
特别适合标注成本高的场景
模型压缩
:
知识蒸馏:将大模型知识迁移到小模型
2024年SLM(小语言模型)成为热门趋势
适合边缘部署和资源受限环境
多任务学习
:
同时优化多个相关任务
任务间知识共享提升整体性能
减少总体训练时间和资源
相关概念
微调
- 迁移学习的主要实现方式
LoRA
- 参数高效微调方法
零样本学习
- 无需训练的迁移方式
少样本学习
- 少量样本的迁移学习
知识蒸馏
- 模型间知识迁移
延伸阅读
Transfer Learning for LLMs (2024)
Zero-shot Cross-lingual Transfer in Instruction Tuning
Fine-tuning LLMs for Domain-specific MT
Parameter-Efficient Transfer Learning Survey
强化学习
思维链
Assistant
Responses are generated using AI and may contain mistakes.