当前位置:   article > 正文

在Mac m1运行ChatGLM3-6B cpu版本1-3秒出结果_mac book pro m1 pro 跑chatglm

mac book pro m1 pro 跑chatglm

实测:

输入内容:295个字,1.9秒开始出结果,这个速度接近T4。

具体过程如下:

1.准备环境

git clone --recursive https://github.com/li-plus/chatglm.cpp.git && cd chatglm.cpp

git submodule update --init --recursive

python3 -m pip install -U pip

python3 -m pip install torch tabulate tqdm transformers accelerate sentencepiece

2.下载chatglm3-6b

brew install git-lfs

git lfs install

git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

下载到/Users/xxx/chatglm3-6b

3.生成cpu版本

python3 chatglm_cpp/convert.py -i /Users/xxx/chatglm3-6b -t q4_0 -o chatglm3-ggml.bin

4.开启Metal for M1,安装chatglm-cpp

CMAKE_ARGS="-DGGML_METAL=ON" pip install -U chatglm-cpp

5.运行模型web

python examples/web_demo.py -m chatglm3-ggml.bin

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/189624?site
推荐阅读
相关标签
  

闽ICP备14008679号