当前位置:   article > 正文

第十二篇-Tesla P40+ModelScope+Gradio+QWen+MindChat_mindchat-7b

mindchat-7b

本文主要实现Qwen-7B-Chat与MindChat-Qwen-7B的简单部署与测试

环境

  系统:CentOS-7
  CPU: 14C28T
  显卡:Tesla P40 24G
  驱动: 515
  CUDA: 11.7
  cuDNN: 8.9.2.26
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

创建环境

conda create --name qwen-chat python=3.10
conda activate qwen-chat
  • 1
  • 2

克隆项目

git clone https://github.com/lvxy/qwen-chat-gradio.git
cd qwen-chat-gradio
  • 1
  • 2

安装依赖

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
  • 1

安装依赖-量化依赖库

pip install bitsandbytes -i https://pypi.tuna.tsinghua.edu.cn/simple

load_in_8bit=True量化加载模型,节省显存
  • 1
  • 2
  • 3

运行

python webui_qwen.py
或者
python webui_mind.py
  • 1
  • 2
  • 3

通过ModelScope下载模型,下载速度还是很好的,下载模型完成,需要一些时间
1.Qwen-7B-Chat 大概15G
2.MindChat-Qwen-7B 大概14G

访问使用

http://127.0.0.1:7860
  • 1

可以使用体验了

本文参考
https://github.com/X-D-Lab/MindChat/blob/main/webui_demo.py

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/酷酷是懒虫/article/detail/908440
推荐阅读
相关标签
  

闽ICP备14008679号