当前位置:   article > 正文

用GPTQ量化ChatGLM2-6B_chatglm gptq wbits 量化

chatglm gptq wbits 量化
  1. from transformers import AutoModelForCausalLM, AutoTokenizer, GPTQConfig
  2. from datasets import load_dataset
  3. model_id = "THUDM/chatglm-6b"
  4. dataset = ["auto-gptq 是一个基于 GPTQ 算法的易于使用的模型量化库,具有用户友好的 api。"]
  5. #可选择公开数据集量化
  6. tokenizer = AutoTokenizer.from_pretrained(model_id,trust_remote_code=True)
  7. gptq_config = GPTQConfig(bits=8, dataset=dataset, tokenizer=tokenizer)
  8. #注意,quantization_config用于选择数据集,输出量化后的模型
  9. quant_model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto",quantization_config=gptq_config,trust_remote_code=True)

不知道为什么会报错,如果有大佬看到可以帮忙看一看吗

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/359952
推荐阅读
相关标签
  

闽ICP备14008679号