当前位置:   article > 正文

llama3本地云部署_conda init llama3

conda init llama3

1、环境配置

  1. #建立conda环境
  2. conda create -n llama3 python=3.10
  3. #激活conda环境
  4. conda activate llama3
  5. #安装相关的包
  6. conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia

2、下载模型

  1. #新建文件夹
  2. mkdir -p ~/model
  3. cd ~/model
  1. #从OpenXLab中获取权重(开发机中不需要使用此步)
  2. #安装 git-lfs 依赖
  3. # 如果下面命令报错则使用 apt install git git-lfs -y
  4. conda install git-lfs
  5. git-lfs install
  1. #下载模型 (InternStudio 中不建议执行这一步)
  2. git clone https://code.openxlab.org.cn/MrCat/Llama-3-8B-Instruct.git Meta-Llama-3-8B-Instruct

3.Web Demo 部署

  1. cd ~
  2. git clone https://github.com/SmartFlowAI/Llama3-Tutorial
  1. 安装 XTuner 时会自动安装其他依赖
  2. cd ~
  3. git clone -b v0.1.18 https://github.com/InternLM/XTuner
  4. cd XTuner
  5. pip install -e .

出现gpu不足的情况:1不运行,改为2

1、

  1. #运行 web_demo.py
  2. streamlit run ~/Llama3-Tutorial/tools/internstudio_web_demo.py \
  3. ~/model/Meta-Llama-3-8B-Instruct

2、

  1. streamlit run ~/Llama3-Tutorial/tools/internstudio_quant_web_demo.py\
  2. > ~/model/Meta-Llama-3-8B-Instruct

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/寸_铁/article/detail/968414
推荐阅读
相关标签
  

闽ICP备14008679号