<aside>
💡 在上节课的Lecture3中,我们主要学习了两种大模型的开发范式,并详细学习了其中的RAG。本节课中,我们主要学习第二种范式,Finetune
,并使用XTuner
基于InternLM进行单卡微调。在普通的学习中,LLM
没办法很好的应用于具体的实际和板块,因此需要微调来定制。对模型进行微调有两种策略,增加数据集和指令微调。XTuner
是打包好的微调工具箱,它的微调原理是LoRA&QLoRA,能够减少显存占用,使开发者专注数据内容而不是格式。
</aside>
<aside> ❓ 课前的一些问题~
</aside>
什么是LLM
?
LLM
就是大语言模型的统称。我们知道,LangChain
封装了很多组件,通过将这些组件组合,一个chain
能够封装一系列的LLM
操作,详细的可以见后续的检索问答链。
什么是Finetune
?
Finetune
是大模型常见的两种范式之一,它的核心:在已有数据集上微调
什么是XTuner
?
XTuner
是打包好的微调工具箱,支持Huggingface和modelscope加载模型和数据集。支持多款开源大模型InternLM,阿里千问,百川大模型,清华Chatglm,多专家模型等,加速算法等等都有。
<aside> 📎 Finetune简介:
</aside>
增量预训练
指令跟随微调
<aside> 🔑 Xtuner打包好的工具:指令跟随微调
</aside>
<aside> 👉
Xtuner使用的微调原理:LoRA&QLoRA
</aside>
Xtuner有强大的数据处理引擎,使开发者专注数据内容而不是格式
数据处理流程: