<aside> 💡 在上节课的Lecture3中,我们主要学习了两种大模型的开发范式,并详细学习了其中的RAG。本节课中,我们主要学习第二种范式,Finetune,并使用XTuner基于InternLM进行单卡微调。在普通的学习中,LLM没办法很好的应用于具体的实际和板块,因此需要微调来定制。对模型进行微调有两种策略,增加数据集和指令微调。XTuner是打包好的微调工具箱,它的微调原理是LoRA&QLoRA,能够减少显存占用,使开发者专注数据内容而不是格式。

</aside>

<aside> ❓ 课前的一些问题~

</aside>

什么是LLM

LLM就是大语言模型的统称。我们知道,LangChain 封装了很多组件,通过将这些组件组合,一个chain能够封装一系列的LLM操作,详细的可以见后续的检索问答链。

什么是Finetune

Finetune是大模型常见的两种范式之一,它的核心:在已有数据集上微调

什么是XTuner

XTuner是打包好的微调工具箱,支持Huggingface和modelscope加载模型和数据集。支持多款开源大模型InternLM,阿里千问,百川大模型,清华Chatglm,多专家模型等,加速算法等等都有。

一、微调框架Xtuner原理

<aside> 📎 Finetune简介:

</aside>

<aside> 👉

Xtuner使用的微调原理:LoRA&QLoRA

</aside>

二、Xtuner微调工作流程

Xtuner有强大的数据处理引擎,使开发者专注数据内容而不是格式

数据处理流程: