当前位置:   article > 正文

关于大模型ChatGLM3-6B在CPU下运行_chatglm3 cpu

chatglm3 cpu

        最近在调研市场上语言大模型,为公司的产品上虚拟人的推出做准备。各厂提供语言模型都很丰富,使用上也很方便,有API接口可以调用。但唯一的不足,对于提供给百万用户使用的产品,相比价格都比较贵。所以对ChatGLM3-6B的使用做了深入了解,特别只有CPU没有GPU的本地运行,ChatGLM3-6B最好的选择之一。

     ChatGLM3-6B的安装见:

chatglm3-6b  https://modelscope.cn/models/ZhipuAI/chatglm3-6b/summary

     在CPU上运行需要修改下调用方法,以安装文章中的例子做说明:

  1. from modelscope import AutoTokenizer, AutoModel, snapshot_download
  2. model_dir = snapshot_download("ZhipuAI/chatglm3-6b", revision = "v1.0.0")
  3. tokenizer = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
  4. #model = AutoModel.from_pretrained(model_dir, trust_remote_code=True).half().cuda()
  5. #cuda使用GPU计算, float使用CPU计算
  6. model = AutoModel.from_pretrained(model_dir, trust_remote_code=True).half().float()
  7. model = model.eval()
  8. response, history = model.chat(tokenizer, "你好", history=[])
  9. print(response)
  10. response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
  11. print(response)

将代码中cuda()方法改为float()即可。cuda使用GPU计算, float使用CPU计算。运行的结果如下:

   

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/418293
推荐阅读
相关标签
  

闽ICP备14008679号