<aside> 💡 在Lecture2中,我们的详细介绍了大模型的概念,然后学习三个具体的示例演示(智能对话Demo、Lagant工具智能体调用Demo、浦语·灵笔图文创作理解Demo)以帮助更好地理解和应用这个概念。此外,我们还将提供通用环境配置的步骤和指导,以确保能够顺利地进行开发和运行。如果需要更深入的学习和了解,您可以查看我们的官方教程,其中包含更多详细的信息和示例代码。

</aside>

一、智能对话Demo(Chat-7B Demo)

训练:在1024个GPU的大型集群上训练

微调:单个GPU微调

<aside> 📎 特点:

</aside>

二、Lagant工具智能体调用Demo

Lagent是基于大语言模型的智能体agent框架,可以把这个大语言模型转变为多种类型的智能体。

本次尝试的智能体为数学题类型,还能进行更多想法的创作。

三、浦语·灵笔图文创作理解Demo

浦语·灵笔是基于大语言模型研发的视觉·语言模型,有着出色的图文理解和创作能力,能够轻松的创作一篇图文推文!

<aside> 📎 特点:

</aside>

四、通用环境配置

  1. 登录OpenXLab网站算力平台

  2. 环境准备:pip下载依赖包和库

  3. 下载模型的几个方法

    1. huggingface

      ps:使用huggingface-cli下载较慢,容易失败,可以设置镜像站后下载export HF_ENDPOINT=https://hf-mirror.com

      pip install -U huggingface_hub
      huggingface-cli download --resume-download internlm/internlm-chat-7b --local-dir your_path
      huggingface-cli download --resume-download internlm/internlm-chat-7b --local-dir model/huggingface
      
    2. openxlab

      from openxlab.model import download
      download(model_repo='OpenLMlab/InternLM-7b',model_name='InternLM-7b',output='your local path')
      
    3. modelscope

      from modelscope import snapshot_download
      model_dir = snapshot_download('Shanghai_AI_Laboratory/internlm-chat-7b', cache_dir = 'your path', revision = 'master')
      
  4. 安装需要的智能体