当前位置:   article > 正文

LLama3 大模型安装配置详细步骤_liama3部署

liama3部署

本地生成 SSH Key

ssh-keygen
cat ~\.ssh\id_rsa.pub

 

 添加成功

ssh -p 46090 root@ssh.intern-ai.org.cn -CNg -L 7860:127.0.0.1:7860 -o StrictHostKeyChecking=no

 

环境配置

  1. conda create -n llama3 python=3.10
  2. conda activate llama3
  3. conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia

安装 git-lfs 依赖  git-lfs install git-lfs 是 Git Large File Storage 的缩写,是 Git 的一个扩展,用于处理大文件的版本控制。

  1. conda install git-lfs
  2. git-lfs install

下载模型 (InternStudio 中不建议执行这一步)

  1. mkdir -p ~/model
  2. cd ~/model
  3. git clone https://code.openxlab.org.cn/MrCat/Llama-3-8B-Instruct.git Meta-Llama-3-8B-Instruct

或者软链接 InternStudio 中的模型

ln -s /root/share/new_models/meta-llama/Meta-Llama-3-8B-Instruct ~/model/Meta-Llama-3-8B-Instruct

Web Demo 部署

  1. cd ~
  2. git clone https://github.com/SmartFlowAI/Llama3-XTuner-CN

安装 XTuner 时会自动安装其他依赖

  1. cd ~
  2. git clone https://github.com/SmartFlowAI/Llama3-XTuner-CN

安装 XTuner 时会自动安装其他依赖

  1. cd ~
  2. git clone -b v0.1.18 https://github.com/InternLM/XTuner
  3. cd XTuner
  4. pip install -e .

运行 web_demo.py

  1. streamlit run ~/Llama3-XTuner-CN/tools/internstudio_web_demo.py \
  2. ~/model/Meta-Llama-3-8B-Instruct

ubuntu版: sudo apt-get install git-lfs
centeros:sudo yum install git-lfs

pip install -e . 是 pip 命令的一种使用方式,它表示在当前目录下安装一个可编辑包。具体含义如下:

pip 是 Python 的软件包管理器,用于安装、卸载和管理 Python 包;
install 是 pip 命令的一个子命令,用于安装 Python 包;
-e 表示使用可编辑模式安装包,即把包安装到当前目录,并且可以通过编辑包代码实时调试;
. 表示安装当前目录下的包。
因此,pip install -e . 的含义是:在当前目录下安装一个包,并创建一个软连接引用该包(而不是将包复制到 site-packages 目录下)。这个软连接是一个指向包代码的符号链接,它可以使包的修改直接反映到当前目录下的项目中,从而方便开发和调试。需要注意的是,只有包含 setup.py 文件(Python 包的打包脚本)的包才能使用 pip install -e . 命令安装。另外,为了避免环境冲突,建议在虚拟环境中使用该命令。

VSCode 远程连接 InternStudio 开发机

我们可以使用 Ctrl + Shift + ~ 快捷键打开 vscode 终端,然后点击右边的 Ports 界面,接着点击 Foward a Port 按钮。

自我认知训练数据集准备

  1. cd ~/Llama3-Tutorial
  2. python tools/gdata.py

 

 启动API服务器

 命令行客户端连接API服务器

使用Gradio作为前端,启动网页客户端。

 整整跑了1个小时。。。牛逼

实际测试最下面,跟官方测试差异部分,可能是KV Cache  太小缘故

 使用LMDeploy运行视觉多模态大模型Llava-Llama-3

 安装依赖

pip install git+https://github.com/haotian-liu/LLaVA.git

 运行模型

python pipeline_llava.py 
  1. from lmdeploy import pipeline, ChatTemplateConfig
  2. from lmdeploy.vl import load_image
  3. pipe = pipeline('xtuner/llava-llama-3-8b-v1_1-hf',
  4. chat_template_config=ChatTemplateConfig(model_name='llama3'))
  5. image = load_image('https://raw.githubusercontent.com/open-mmlab/mmdeploy/main/tests/data/tiger.jpeg')
  6. response = pipe(('describe this image', image))
  7. print(response.text)

在显示下面的内容后,就表示已经转换好了。转换好的数据位于 ~/Agent-FLAN/data_converted

 微调启动,这个时间貌似非常久要2天

xtuner train ~/Llama3-Tutorial/configs/llama3-agentflan/llama3_8b_instruct_qlora_agentflan_3e.py --work-dir ~/llama3_agent_pth --deepspeed deepspeed_zero2

可以用微调好的现场的权重文件

  1. export MKL_SERVICE_FORCE_INTEL=1
  2. xtuner convert merge /root/model/Meta-Llama-3-8B-Instruct \
  3. /share/new_models/agent-flan/iter_2316_hf \
  4. ~/llama3_agent_pth/merged

 

 

 

oepncompass 评测

  1. 下载数据集到 data/
  2. wget https://github.com/open-compass/opencompass/releases/download/0.2.2.rc1/OpenCompassData-core-20240207.zip
  3. unzip OpenCompassData-core-20240207.zip

C-Eval是由清华大学、上海交通大学和爱丁堡大学合作构建的面向中文语言模型的综合性考试评测集,包含13948道多项选择题,涵盖数学、物理、化学、生物、历史、政治、计算机等52个不同学科和四个难度级别,是全球最具影响力的综合性考试评测集之一。

模型擅长的领域

Llama3-Tutorial/docs/hello_world.md at main · SmartFlowAI/Llama3-Tutorial · GitHub

Llama3-Tutorial/docs/opencompass.md at main · SmartFlowAI/Llama3-Tutorial · GitHub

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/秋刀鱼在做梦/article/detail/948724
推荐阅读
相关标签
  

闽ICP备14008679号