当前位置:   article > 正文

llama-factory微调大模型_llama-factory容器模型地址

llama-factory容器模型地址

一、背景

微调或者全量调大语言模型,还包括deepseek,想找个快速的微调教程,网上暂时没有

二、原理和步骤

原理:搭建环境太累了,还是docker环境镜像简单快捷

1、先下载模型

如果用本身的会自动从huggingface下载,这下不了(也没有提示)

  1. from modelscope import snapshot_download
  2. model_dir = snapshot_download('qwen/Qwen-7B')
  3. print(model_dir )下载的路径

2、拉去LLAMA-factory repo

docker build -f ./Dockerfile -t llama-factory:latest .

3、要根据自己的目录调整启动镜像

  1. docker run --gpus=all \
  2. -v 你下载的模型地址:/models/Qwen-7B \
  3. -v ./data:/app/data \
  4. -v ./output:/app/output \
  5. -e CUDA_VISIBLE_DEVICES=0 \
  6. -p 7860:7860 \
  7. --shm-size 16G \
  8. --name llama_factory \
  9. -d llama-factory:latest

三、访问web

地址:ip:7860

可以点击chat-load模型,并可以正常聊天了

其次就算微调模型,各种参数设置了

如需要帮助,关注发消息 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Guff_9hys/article/detail/795151
推荐阅读
相关标签
  

闽ICP备14008679号