当前位置:   article > 正文

Llama 3 五一超级课堂 笔记 ==> 第五节、Llama 3 Agent 能力体验与微调_llama3 支持agent吗

llama3 支持agent吗

环境准备

创建环境

conda create -n llama3 python=3.10
conda activate llama3
conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia
  • 1
  • 2
  • 3

安装 XTuner

cd ~
git clone -b v0.1.18 https://github.com/InternLM/XTuner
cd XTuner
pip install -e .[all]
  • 1
  • 2
  • 3
  • 4

clone 教程仓库

cd ~
git clone https://github.com/SmartFlowAI/Llama3-Tutorial
  • 1
  • 2

模型准备

InternStudio 软链的方式

mkdir -p ~/model
cd ~/model
ln -s /root/share/new_models/meta-llama/Meta-Llama-3-8B-Instruct .
  • 1
  • 2
  • 3

已上这些在前面章节已经准备好,所以我选择 conda activate llama3直接进入环境。

数据准备

由于 HuggingFace 上的 Agent-FLAN 数据集暂时无法被 XTuner 直接加载,因此我们首先要下载到本地,然后转换成 XTuner 直接可用的格式。

  • InternStudio

如果是在 InternStudio 上,我们已经准备好了一份转换好的数据,可以直接通过如下脚本准备好:

cd ~
cp -r /root/share/new_models/internlm/Agent-FLAN .
chmod -R 755 Agent-FLAN
  • 1
  • 2
  • 3

微调

我们已经为大家准备好了可以一键启动的配置文件,主要是修改好了模型路径、对话模板以及数据路径。
我们使用如下指令以启动训练:

export MKL_SERVICE_FORCE_INTEL=1
xtuner train ~/Llama3-Tutorial/configs/llama3-agentflan/llama3_8b_instruct_qlora_agentflan_3e.py --work-dir ~/llama3_agent_pth --deepspeed deepspeed_zero2
  • 1
  • 2

在训练完成后,我们将权重转换为 HuggingFace 格式,并合并到原权重中。

# 转换权重
xtuner convert pth_to_hf ~/Llama3-Tutorial/configs/llama3-agentflan/llama3_8b_instruct_qlora_agentflan_3e.py \
    ~/llama3_agent_pth/iter_18516.pth \
    ~/llama3_agent_pth/iter_18516_hf
  • 1
  • 2
  • 3
  • 4

上面数据准备和微调,我就不弄了,直接用老师准备的hf

老师为大家准备好了已经训练好且转换为 HuggingFace 格式的权重,可以直接使用。路径位于 /share/new_models/agent-flan/iter_2316_hf
接下来合并模型

export MKL_SERVICE_FORCE_INTEL=1
xtuner convert merge /root/model/Meta-Llama-3-8B-Instruct \
    /share/new_models/agent-flan/iter_2316_hf \
    ~/llama3_agent_pth/merged
  • 1
  • 2
  • 3
  • 4

Lagent Web Demo

安装 lagent

pip install lagent
  • 1

效果

启动web demo 使用 微调后的模型
运行命令

streamlit run ~/Llama3-Tutorial/tools/agent_web_demo.py /root/llama3_agent_pth/merged
  • 1

询问:查找Llama3 的技术报告
class-5-2.png
启动web demo 使用 微调前的模型
运行命令

streamlit run ~/Llama3-Tutorial/tools/agent_web_demo.py /root/model/Meta-Llama-3-8B-Instruct
  • 1

询问:查找Llama3 的技术报告class-5-3.png

在运行的时候有一个报错OSError: [Errno 28] inotify watch limit reached

我等待了一会就好了。
下面是网上的方案
OSError: [Errno 28] inotify watch limit reached · Issue #3189 · chatchat-space/Langchain-Chatchat

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/648655
推荐阅读
相关标签
  

闽ICP备14008679号